Daemon Tools (D-Tools): Prueba imágenes de CD/DVD sin tener que grabarlas


Daemon Tools (D-Tools) es un software (Inicialmente fue gratuito, aunque actualmente tiene varias versiones de pago y una gratuita para uso personal (No comercial) denominada “Lite”) que permite montar/desmontar imágenes de CD/DVD creadas con diferentes programas de grabación  de discos CD/DVD, soportando los siguientes tipos:

  • bin/cue (CDRWin).
  • b5t (BlindWrite 5).
  • bwt (BlindWrite).
  • ccd (CloneCD).
  • cdi (DiscJuggler).
  • iso (Imagen de CD estándar).
  • mds (Alcohol 120%: Media descriptor files).
  • nrg (Nero Burning Rom).
  • pdi (Instant CD/DVD).

Montando las imágenes de CD/DVD en una unidad de CD/DVD virtual (Información de Wikipedia), e incluso permite emular protecciones como Safedisc, LaserLock, SecureRom. Lógicamente las imagen del CD/DVD montado en la unidad virtual puede desmontarse una vez comprobado su funcionamiento.

La última versión gratuita (Aunque instala una barra de publicidad si no se desmarca dicha opción) es la v4.x Lite.

La mayor ventaja de Daemon Tools es que permite comprobar si una imagen de CD/DVD es realmente lo que dice ser, con esta utilidad conseguimos varias ventajas:

  1. Comprobar si la imagen de CD/DVD es la correcta y funcional antes de grabarla en un CD/DVD físico.
  2. No tener que grabar la imagen en un CD/DVD si no es necesario, ya que se puede ejecutar desde la unidad virtual, ahorrándonos algún que otro CD/DVD físico.

XBoot: Utiliza varios archivos ISO desde un sólo CD/DVD o Memoria flash


En muchas ocasiones los programas de diagnóstico y/o Live CD/DVD de Linux vienen en formato ISO para grabarlos en un CD/DVD, sin embargo grabar un programa testear la RAM como Memtest (De unos pocos MB en un CD/DVD) es una “lastima” ya que queda mucho espacio desaprovechado.

Xboot (Información de Softonic; aunque también puede descargarse desde Softpedia) es un programa gratuito (Freeware) en inglés creado con Netframework v4,  que permite precisamente aprovechar el espacio de un CD/DVD o memoria flash (Pendrive y/o tarjeta de memoria) almacenando varias ISO “compatibles” con el programa, creando un menú dónde el usuario puede elegir la utilidad que quiere arrancar.

Se puede encontrar más información en:

¿Almacenamiento en soporte físico u online?


Hasta hace poco lo habitual era guardar los datos en soportes de almacenamiento físico como por ejemplo:

  • Disquetes de 3,5″ con 1,44 MB (Actualmente apenas se utilizan).
  • Unidades Zip/Jazz de varios GB (Actualmente apenas se utilizan), eran “disquetes” removibles de alta capacidad aunque no eran compatibles con los discos de 3,5″.
  • CDs (650/700 MB)/DVDs (DVD5 de 4,38 GB y DVD9 de 7,92 GB “efectivos”).
  • Discos duros (HDD: Hard Disk Drive) bien internos (Conectados mediante IDE/UDMA, SATA, SCSI o SAS que con los conectores más comunes) o externos (Utilizando como bus USB 2.0, Firewire400/800, eSATA, USB 3.0,…), actualmente tienen capacidades de varios cientos de GB (De hecho actualmente el “tope” son 2 TB (2.000 GB), aunque se espera que aparezcan discos de mayor capacidad en breve).
  • Memorias Flash USB (Ls denominados “Pendrives”).
  • Tarjetas de memoria (Compact Flash (CF), Secure Digital (SD), Multimedia Card (MMC), Memory Stick,…).
  • SSD (Solid State Device, Dispositivos de Estado Sólido basados en memoria flash. Son las unidades de almacenamiento que sustituiran a los discos duros actuales en un futuro próximo, aunque actualmente tienen un precio “prohibitivo” para dedicarlos a almacenamiento de datos (Una unidad de 60 GB de ultima generación ronda los 120 €), aunque para discos de Sistema (Almacenamiento de Sistema Operativo, Programas y Juegos) son muy buena elección ya que actualmente son los dispositivos de almacenamiento más rápidos, incluso superan en rendimiento a los discos SCSI/SAS de 10.000 y 15.000 Rpms, cuando en un entorno doméstico se utilizan discos de 7.200 Rpms o como mucho discos SATA Western Digital Raptor/Velociraptor de 10.000 Rpms, aunque estos ultimos han perdido la batalla con los SSD en rendimiento no asi en capacidad, un Velociraptor de 300 GB ronda los 140 € mas portes en Alternate, curiosamente el modelo de 150 GB tiene el mismo precio pero la mitad de capacidad).

Disco duro (HDD: Hard Disk Drive)

 

Las ventajas de un almacenamiento en soporte físico son:

  • Tenemos un acceso a los datos instántaneo (Lógico ya que solo tenemos que conectar la unidad al ordenador).
  • El mantenimiento y ordenamiento de la información la realizamos nosostros mismos (El usuario/administrador es quien decide los datos que deben ser replicados y cuales son “innecesarios” en caso de fallo).
  • Al tenerlos en un soporte físico se pueden extraer contenido fácilmente a otros soportes (Por ejemplo si tenemos videos personales en formato DVD, podremos grabarlos en un DVD sin muchos problemas).
  • El mantenimiento de copias de seguridad esta más controlado, existen programas que permiten realizar copias cada cierto tiempo de carpetas/particiones determinadas.
  • En principio requiere menos seguridad (No es necesario poner el nombre de usuario (Login) ni contraseña (Password), aunque en algunos sistemas de almacenamiento externo existe esa posibilidad para aumentar la seguridad de los datos, incluso existen sistemas de almacenamiento externo que usan sistemas de seguridad biométricos mediante huella digital para dar acceso a los datos o denegarlo).

Pero también tienen sus desventajas:

  • Un fallo mecánico (En el caso de un disco duro) o electrónico (En el caso de un disco duro, memoria flash,…) puede estropear la unidad de almacenamiento con nuestros datos dentro, haciendo practicamente imposible la recuperación de los mismo (En casos muy graves la única solución es recurrir a una empresa especializada en recuperación de datos pero este proceso no es precisamente barato).
  • Un malware (Virus, Gusanos,…) puede dañar los datos y/o las unidades lógicas (Particiones) dificultando el acceso a los datos.
  • Puede haber un borrado de datos por algun usuario/administrador bien de forma involuntaria (Por despiste) o bien hecha a conciencia (Por ejemplo un usuario malintencionado que entre en el equipo bien de forma remota o fisicamente) y borre datos importantes.
  • Averías de los sistemas de alamcenamiento debidas al desgaste de los componentes mecánicos (Todos los discos duro terminan averiandose tarde o temprano, ya que tienen una gran cantidad de piezas moviles que sufren un desgaste con el tiempo de uso).
  • Posibilidad de que roben la unidad físicamente.
  • Es necesario que el usuario/administrador tengan una política de copias de seguridad (Por ejemplo realizar un copia mensual de los datos poco importantes y una semanal de los datos críticos, de esta forma en caso de fallo tendriamos los datos del mes anterior y los de la semana pasada, sin embargo si hacemos una copia de seguridad de los datos poco importantes trimestralmente y una copia mensual de los datos críticos en caso de fallo recuperariamos los datos no criticos de hace tres meses y los críticos del mes anterior).
  • Otro problema es el espacio que ocupan físicamente los soportes de almacenamiento físico (Discos duros, CDs, DVDs,…) que requieren algun sistema para archivarlos de forma adecuada.
  • Así mismo un cambio de formato de almacenamiento afectas a los soportes, ya que por ejemplo hace años lo “normal” eran los discos de 3,5″ con 1,44 MB, despues aparecieron las unidades Zip/Jazz y practicamente al par las primeras grabadoras de CDs de 650/700 MB, poco despues las grabadoras de DVD de una capa (DVD5 con 4,38 GB “utiles”) y posteriomente las de doble capa (DVD9 con 7,92 GB “utiles”), mientras que los discos duros han crecido en capacidad de forma increible (Actualmente hay discos duros de 1 y 2 TB, o lo que es lo mismo 1.000 y 2.000 GB) y unidades flash (USB o en formato tarjeta) con varios GB de capacidad. Por lo que se hace aconsejable elegir bien el tipo de soporte (Quizas actualmente la mejor opcion sea el uso de discos duros de gran capacidad ya que apenas ha variado con el tiempo mientras que otros formatos (Ej: Zip/Jazz) o bien ha desaparecido del mercado o bien se han ido “mejorando”  como ha sido el caso de las unidades ópticas (Primero salieron los CDs, despues los DVDs y ahora están los Blu-Ray que admiten hasta 25 GB por capa).

Sin embargo actualmente esta apareciendo los soportes online o almacenamiento en red (También llamado Cloud Computing, Computación en Nube) tanto gratuitos como de pago que puede ser en el ámbito de:

  • Una Intranet (Ej: Red local de una pequeña empresa).
  • Una VPN (Virtual Private Network, Red Privada Virtual).
  • La propia Internet (La Red de Redes).

Cuyas ventajas son:

  • Tenemos acceso a nuestros datos desde cualquier lugar siempre y cuando exista una conexión a internet (Ej: ADSL, Cable, 3G, GPRS,…), los datos normalmente se almacenan en servidores “apilados” que reciben el nombre de Datacenter (Centros de Datos) o CPD (Centro de Procesamiento de Datos), información de Wikipedia.
  • Almacenamiento de datos en servidores remotos (No son accesibles localmente por lo que se aumenta la seguridad física de los datos evitando en lo posible que usuario malintencionados puedan acceder localmente a los datos y/o robar las unidades de almacenamiento).
  • No es necesario cambiar el formato de los archivos, aunque si podría ser necesario tener un programa compatible con el tipo de formato para poder abrirlo/editarlo.
  • Mayor seguridad, no hay que preocuparse por mantenimiento (Copias de seguridad), malware (Virus, Gusanos,…), ya que otros (Los administradores del sitio donde se almacenan los datos) se encargan de ello.
  • Es posible hacer copias de los datos online (En servidor remoto), en nuestro ordenador de forma local por si queremos aumentar la seguridad de los Back-Ups (Copias de seguridad) de los datos críticos.
  • El espacio ocupado por nuestros datos online se almacena en servidores remotos, es decir que no necesitariamos unidades de almacenamiento físicas (Ej: Discos duros) para almacenamiento local.
  • En muchos casos el almacenamiento online es gratuito, aunque existen opciones de pago con más ventajas (Ej: Mayor capacidad de almacenamiento).
  • Permite la reproducción de audio y video en “streaming” (Al vuelo), no es necesario descargar el fichero en nuestro equipo (Se reproduce a medida que avanza) esto por norma general suele funcionar sin embargo si la red esta muy colapsada o bien nuestra conexión no es tan rápida como debería pueden producirse parones o “cortes” durante la reproducción del archivo audiovisual.

Data Center (CPD: Centro de Procesamiento de Datos)

 

Sin embargo el almacenamiento en red también tiene sus desventajas:

  • Si no disponemos de conexión a Internet por la razón que sea no tendremos acceso a nuestros datos online, por lo que para poder acceder a nuestros datos online siempre será necesario disponer de una conexión a Internet forzosamente (Cosa que no ocurre con el almacenamiento físico o almacenamiento local).
  • No tenemos ningún control sobre los datos, por ejemplo si la empresa lleva a cabo tareas de mantenimiento es posible que nuestro servidor de almacenamiento online este fuera de línea (Off line o Inaccesible) cuando es posible que necesitamos tener acceso a ellos de forma “urgente”.
  • Por otra parte se supone que las empresas de almacenamiento online, se dedican precisamente a almacenar datos de usuarios pero tampoco se puede estar seguro al 100% que donde tengamos alojados nuestros datos los utilicen de algún modo e incluso manipularlos de alguna forma.
  • En caso de desastre (Ej: Un fallo en el servidor) podrían perderse los datos aunque en estos casos lo normal es que las empresas tengan copias de seguridad (Back-Ups) para restaurarlos, claro que es posible que la copia de seguridad restaurada no sea de “ayer” (Día anterior al desastre) sino que tenga otra fecha (Ej: La semana pasada) y por tanto los datos restaurados no estarían actualizados a día de “hoy” sino a la fecha de restauración.
  • Los portales de Streaming (Ej: Youtube,…) son los que deciden que contenidos se pueden subir y cuales no (Por norma general aquellos contenidos con derechos de autor (Copyright) suelen ser borrados lo antes posible para evitar una posible demanda por parte del autor o compañia representante (Ej: SGAE, RIAA) por reproducir un contenido audivisual sin autorización), de hecho sitios como MegaUpload, MediaFire,… que se dedican a alojar archivos en la red verifican que los archivos no tengan copyright, en caso de tenerlo actuan en consecuencia (Lo normal es que borren el archivo).
  • Limitación del ancho de banda, por ejemplo en España actualmente la conexión más rápida sin tener en cuenta la opcion de 50 Mbps/3 Mbps de ONO son las conexiones ADSL/Cable de como mucho unos 20 Megas (20 Mbps/1 Mbps) aunque en pequeñas ciudades y zonas rurales es más frecuente ver conexiones de 6 Mbps/300 Kbps o incluso menos lo cual limita bastante el uso de los sistemas de almacenamiento online porque hay que tener en cuenta que antes de tener alojados nuestros archivos en la Red (Internet) hay que subirlos a la misma, pero la velocidad de subida que tenemos actualmente es bastante “baja”:
    • 3 Mbps (Unos 384 KB/Seg).
    • 1 Mbps (Unos 128 KB/Seg).
    • 300 Kbps (Unos 38,4 KB/Seg).

En comparacion con la velocidad de bajada:

  • 50 Mbps (Unos 6.400 KB/Seg, aproximadamente 6,25 MB/Seg).
  • 20 Mbps (Unos 2.560 KB/Seg, aproximadamente 2,25 MB/Seg).
  • 10 Mbps (Unos 1.280 KB/Seg, aproximadamente 1,25 MB/Seg).
  • 6 Mbps (Unos 768 KB/Seg, aproximadamente 0,75 MB/Seg).
  • 3 Mbps (Unos 384 KB/Seg, aproximadamente 0,375 MB/Seg).

Es decir que si por ejemplo queremos subir 100 MB (0,1 GB) teniendo en cuenta las velocidades de subida actuales tardaríamos aproximadamente:

  • Unos 4 minutos y 24 segundos aproximadamente con una conexión de 3 Mbps (Unos 384 KB/Seg).
  • Unos 13 minutos y 18 segundos aproximadamente con una conexión de 1 Mbps (Unos 128 KB/Seg).
  • Unos 44 minutos y 24 segundos aproximadamente con una conexión de 300 Kbps (Unos 38,4 KB/Seg).

Logicamente cuanto mayor sea el archivo mayor sería el tiempo de subida del mismo, es decir para subir por ejemplo un archivo de 300 MB tardaríamos aproximadamente el triple de tiempo con las conexiones comentadas anteriormente.

Se puede encontrar más información en:

Software de los ordenadores portátiles


Hace poco me dejaron un Compaq Presario M2000 (Turion64 ML-30) del 2005 aproximadamente, que disponía de dos discos:

  • CD Sistema Operativo Microsoft Windows XP Home Edition Service Pack2 el cual es un CD de instalación de Windows OEM “personalizado” por el fabricante (Es una instalación casi desatendida, requiere poner algunos datos del usuario).
  • DVD denominado: “Application and Driver Recovery DVD” el cual incluye tanto los drivers del portátil como los programas freeware (Ej: Acrobat Reader) como de prueba (Ej: Norton Antivirus).

Sin embargo lo que me ha llamado la atención es que el fabricante ha permitido que el usuario pueda decidir si quiere instalar los:

  • Drivers (Controladores) del DVD que trae el portatil de serie o bien usar algunos más actualizados de la propia pagina del fabricante o bien de los fabricante del hardware.
  • Programas añadidos por el fabricante, ya sean freeware o de prueba.

Actualmente tanto los equipos portátiles como los de sobremesa de marca (Ej: Asus, Hewlett Packard (HP), Compaq, Packard Bell, Acer,…) suelen llevar una partición oculta que contiene una copia del Sistema Operativo (Esta copia del Sistema, normalmente se puede grabar en varios DVDs), pero esta “imagen” del Sistema Operativo que hay almacenada en el disco duro, también incluye los programas (Tanto los freeware como de prueba) y configuración del fabricante por defecto (Incluyendo los Drivers) lo cual supone un “estorbo” porque una vez instalado el Sistema Operativo nos encontramos con:

  • Unos drivers que pueden ser algo antiguos, aunque funcionales.
  • Unos programas de prueba que caducan una vez agotados los días de prueba.

En consecuencia si queremos “actualizar” los drivers y programas del equipo es necesario desinstalar:

  • Los drivers (Controladores) originales integrados por el fabricante (Sólo si tenemos los drivers necesarios para que el equipo funcione correctamente).
  • Los programas que no queremos utilizar.

Por lo que el “sistema” de distribución” de software de este Compaq Presario M2000 me parece más adecuado que los “sistemas” actuales.

Copias de seguridad (Back-Up) de datos


Backup

Actualmente todos los usuarios de informática tenemos datos más o menos críticos guardados en nuestros equipos informáticos (Ya sean de sobremesa o portátiles) que en caso pérdida puede suponer:

  1. La pérdida de datos de gran interés ya sea “sentimental” (Ej: Fotografías, Videos, Documentos,…) o “económico” (Ej: Facturas, Bases de datos de clientes,…)
  2. Un sobrecoste económico, en el mercado existen programas de recuperación de datos (Hay que saber manejarlos correctamente para evitar definitivamente la perdida total o parcial de los datos), y empresas especializadas en recuperación de datos (Algunas se comentaron en este post).

Para evitar esto existen las denominadas Copias de Seguridad o Back-up, que no es más que un duplicado de datos, el problema es ¿Qué estrategia seguir en cuanto a la creación de Back-Up?

Para empezar tenemos que tener claro como de críticos consideramos nuestros datos, es decir si por ejemplo consideramos que es suficiente teniendo un sólo duplicado (Aunque lo más aconsejable es utilizar al menos dos sistemas de almacenamiento diferentes) de ellos bastaría usar el medio de almacenamiento que creamos oportuno, por ejemplo:

  • Soportes ópticos (Ej: CDs/DVDs): Hay que tener en cuenta que la calidad de los mismos influye mucho en su duración así como el trato que se le dé a los mismos, en estas dos entradas (¿ Los CDs/DVDs son un medio de almacenamiento de datos fiable ? y Los CDs tienen una vida efímera) hay información sobre estos soportes ópticos.
  • Memoria Flash USB, en este caso nos interesaría buscar una memoria (o varias) con la capacidad necesaria, actualmente existen modelos de 4 y 16 GB que no están nada mal de precio, e incluso hay modelos de 32 y 64 GB aunque son mucho más caros, lo que si es importante es buscar un modelo que tenga unas ciertas prestaciones a la hora de leer y escribir datos ya que cuanto más rápido sea menos tiempo se tarda en hacer la copia de seguridad, por ejemplo si tenemos que copiar 4 GB (Unos 4.000 MB) y nuestra memoria USB escribe datos a una velocidad de 5 MB/seg, tardaríamos al menos unos 800 segundos (Unos 13 minutos y 20 segundos), mientras que si tuviera por ejemplo una tasa de escritura de 10 MB/seg tardaríamos unos 400 segundos (Unos 6 minutos y 40 segundos), en esta entrada: Velocidad de transferencia de memorias flash.
  • Disco duro (En esta entrada: Guía para comprar un disco duro (HDD: Hard Disk Drive) hay más información sobre ellos) un factor a tener en cuanta es su tiempo de vida (Horas MTBF o MTTF), a mayor número de horas mayor fiabilidad, este puede ser interno o externo, en este último caso la conexión del mismo puede ser mediante:
    • USB 2.0: Es una conexión “lenta” (Soporta hasta 480 Mbps, unos 60 MB/seg, aunque raramente sobrepasa los 30 MB/seg) si pensamos transferir una gran cantidad de datos, su mayor ventaja es que actualmente cualquier equipo actual tiene puertos USB 2.0 (Actualmente está en estudio el estandar USB 3.0 aunque no saldrá a la luz hasta dentro de un tiempo).
    • Firewire (1394a y 1394b): Es una conexión algo más rápida que USB 2.0, Firewire 1394a/Firewire400 soporta hasta 400 Mbps (Unos 50 MB/seg) aunque teóricamente tiene menor ancho de banda que USB 2.0, Firewire nació como un estándar de Edición de Video (Muchas camaras MiniDV utilizan este tipo de puerto), por otra parte también existe Firewire 1394b/Firewire800 que soporta hasta 800 Mbps (Unos 100 MB/seg) pero esta poco extendido actualmente, de hecho por regla general es necesario comprar una Controladora Firewire para poder disponer de dicho puerto porque es poco frecuente ver este puesto en los ordenadores (Tipo PC) actuales.
    • eSATA (eSATA150/eSATA300): Con diferencia es el mejor sistema de transmisión de datos ya que soporta hasta 150 MB/seg (eSATA150) o hasta 300 MB/seg (eSATA300), con esta conexión de datos se obtiene un rendimiento similar al de un disco duro interno, pero de forma externa, actualmente no esta muy extendido aunque es de suponer que sea cuestión de tiempo que se convierta en un estándar.
  • Sistema RAID (Redundant Array of Independent Disks, Conjunto de Discos Redundantes Independientes/Baratos) que nos ofrezcan una mayor seguridad en los datos (En esta entrada se comentan algunos de los niveles RAID más comunes) como pueden ser los niveles:
    • RAID 1 (Mirroring): Necesita al menos dos discos duros, hace un duplicado exacto de los datos del disco, aunque en caso de un borrado accidental ambos discos se actualizan por lo que su seguridad en cuanto a backup es más a nivel de hardware (físico) que de software (Datos), ya que el RAID 1 nos permite seguir funcionando en caso de que falle uno de los discos duros.
    • RAID 5: Necesita al menos 3 discos duros. Este nivel RAID distribuye los datos entre los discos duros y además guarda información de paridad para que en caso de que uno de los discos del RAID falle el sistema pueda seguir funcionando y además se puedan recontruir los datos, aunque si un virus afecta a los datos se podrían perder
    • RAID 10 (RAID 1 +0): Necesita al menos 4 discos duros. Es una mezcla de RAID 1 (Mirroring) y RAID 0 (Stripping).
  • Sistema de almacenamiento en red NAS (En esta entrada se comenta algo sobre ellos), son discos duros que se conectan a la red local mediante cable (Pueden usar Fast Ethernet de 100 Mbps o Gigabit Ethernet de 1.000 Mbps) o de forma inalámbrica por Wifi.
  • Cintas mágneticas: Estos sistemas son más usuales en entornos empresariales, ya que este tipo de sistemas suelen ser más costosos.

Evidentemente cuanto más diversifiquemos nuestro sistema de Back-Up, menor sera la probabilidad de que exista una pérdida de información, ya que si por ejemplo utilizamos un disco duro externo y un pendrive para hacer un Back-Up por ejemplo es raro que ambos fallen simultáneamente.

Sin embargo cuanto mayor valor le demos a nuestros datos más complejo debería ser el sistema de Back-Up ya que podría darse el caso de que incluso el Back-Up estuviese dañado por alguna razón, para ello existen otras opciones más profesionales como el Back-Up online (También llamado Back-Up remoto) que ofrecen algunas empresas como: GlobalTEL, Copiadeseguridad.com, CopiaData, Esabe o Docoom entre otras.

Una vez que tenemos claro el medio de almacenamiento que vamos a utilizar para hacer el Backup hay que pensar si el copiado de datos lo vamos a hacer:

  • Manualmente: Es decir seleccionando las carpetas y/o archivos que nos interesan, copiándolos en otro soporte de almacenamiento.
  • Automatizado mediante algún software de Backup que son más flexibles y tienen más opciones de configuración (Aunque muchos de ellos están en inglés), entre ellos están:
    • Cobian Backup (La versión 8 Black Moon es Open Source y Gratuita, sin embargo la versión 9 Amanita no es Open Source pero según parece sigue siendo gratuita).
    • Paragon Drive Backup dispone de varias versiones, entre ellas una denominada Free Edition.
    • GFI Backup es otro de los software de copia de datos, según parece existe una versión gratuita.
    • Uranium Backup: Otro programa para Backup gratuito, aunque el fabricante tiene versiones más completas de pago.
    • Secofi: Es un programa de backup gratuito, aunque piden el registro del usuario.
    • Norton Ghost: Uno de los “clásicos”, es una versión de evaluación (El programa es de pago).
    • Nero BackItUp and Burn: Permite hacer copias de seguridad en CD, DVD o Blu-Ray, es una versión de evaluación (El programa es de pago)

Por otro lado tenemos que tener claro que periodo de tiempo queremos conservar, por ejemplo si hacemos un Back-Up:

  • Mensual, tendríamos los datos de un mes para otro, es decir que en caso de fallo como mucho perderíamos un mes de trabajo.
  • Semanal, en este caso la mayor pérdida de datos sería de una semana como mucho (A mi modo de ver esto sería lo mínimo aconsejable).
  • Diaria, en este caso la mayor pérdida de datos sería de un día para otro.

Hay que tener en cuenta que cuanto mayor es la frecuencia de los Back-up más tiempo se invierte en su creación (Aunque esto también depende de la cantidad de Megabytes/Gigabytes (MB/GB) que haya que salvar para crear el Back-Up), aunuqe el tiempo que invertimos en la creación de Backups debe verse más como una inversión que como una pérdida de tiempo ya que la pérdida de datos puede suponer muchisimos más quebraderos de cabeza.

Así mismo los Back-Up pueden ser de varios tipos:

  • Completo: Se copian todas las carpetas seleccionadas en el programa de Back-Up.
  • Incremental: Sólo hace una copia de los ficheros que han sido modificados o se hayan creado nuevos.
  • Diferencial: Es similar al Diferencial pero solo copia los ficheros que han sido realmente modificados (No se basa en las fechas de modificación los ficheros).

Se puede encontrar más información en:

Guía para comprar una televisión plana (LCD o Plasma)


Independientemente del tipo de televisión que elijamos (LCD o Plasma, comentadas en esta entrada: Televisiones planas ¿LCD o Plasma?) hay ciertos factores a tener en cuenta a la hora de elegir una, entre ellos:

La resolución, que puede ser:  HD Ready 720p (1.280×720 píxeles), o Full HD  (1.920×1.080 píxeles), Actualmente Full HD se denomina HD Ready 1080p, como se comenta en esta entrada: HD Ready vs. Full HD (Ahora denominada HD Ready 1080p). La elección de una resolución u otra depende de:

  1. La distancia a la que vamos a ver la televisión (Esta relacionada con la resolución), en Deaparatos, Foro El Septimo Arte y La Dosis Diaria, se puede encontrar algún ejemplo para calcular la distancia y la resolución adeacuada.
  2. El tamaño de la televisión (Diagonal o pulgadas), según comentan en Que Sabes de aunque no existe una regla para calcular la diagonal recomendada en función de la distancia, sin embargo si comentan que FullHD se hace más visible en pantallas de 37″ o más (Aunque también depende de la distancia de visionado).
  3. El contenido que se va a visualizar en la televisión, por ejemplo si vamos a ver películas en formato DVD (720 x 576 pixeles en PAL, 720 x 480 píxeles en NTSC) o contenido audiovisual con resoluciones similares (ej: TDT, Consolas como la PS2/Xbox,…) con una televisión HDReady (1.280 x 720 píxeles) sería suficiente; por el contrario si pensamos reproducir contenido en Alta Definicion como por ejemplo discos Blu Ray/HD-DVD o visualizar contenidos en resoluciones similares (ej: Consolas como Play Station3 (PS3) o Xbox360) seguramente saquemos mayor partido a una televisión FullHD 1080p (1.920 x 1.080 píxeles) porque el contenido HD suele ser 1.080p.

De todas formas es posible que actualmente no tenga mucho sentido comprar una televisión LCD HD Ready 720p (1.280×720 píxeles) ya que actualmente los LCD Full HD 1080p (1.920×1.080 píxeles) han bajado bastante de precio, y una televisión por regla general suele ser una compra a largo plazo, para varios años.

El tipo de panel LCD (En esta entrada: Paneles LCD ¿TN, IPS y VA? hay más información sobre los tipos de paneles), que puede ser:

  • TN (Twisted Nematic) + FILM: Son los paneles más antiguos y asequibles, tienen muy buen tiempo de respuesta, pero su calidad de imagen (presentan bastante desviación cromática, tienen una profundidad de color de 6 Bits, representando 270.000 colores, aunque los 2 bits que faltan para tener una gama de 16,2 millones de colores se consiguen por interpolación) y ángulos de visión en los extremos (laterales o verticales) son bastante malos distorsionando la imagen. Destacan en juegos y la reproducción de peliculas, ya que no tiene Ghosting (Imagen fantasma) debido a su tiempo de respuesta de muy bajo, de unos pocos milisegundos (ms)… Actualmente son los más habituales y también los más asequibles.
  • IPS (In-Plane Switching, Conmutación En Plano): Es una tecnología que apareció en 1.996 de la mano de Hitachi son más caros que los otros paneles (TN y VA), pero a cambio consiguen mayor fidelidad cromática (apenas tienen desviacíon cromática, tienen una profundidad de color de 8 Bits, representando 16,7 millones de colores, aunque existen modelos de hasta 10 bits), buenos ángulos de visión y contraste del color negro, pero tienen un tiempo de respuesta algo peor que los TN y VA, son más caros que los paneles TN y VA, suelen utilizarse para edición fotográfica.
  • VA (Vertical Alignment,  Alineación Vertical): Fue desarrollada en 1.998 por Fujitsu como una opción intermedia entre los paneles TN y los IPS. Los paneles VA tienen una leve desviación cromática (tienen una profundidad de color de 8 Bits, representano 16,7 millones de colores), un tiempo de respuesta relativamente bajo (más cercano a los TN), un contraste alto (similar a los TN), aunque son más caros que los TN pero más asequibles que los IPS, suelen utilizarse en edición fotográfica, aunque los IPS para esta tarea son mejor opción.

El tiempo de respuesta: A menor tiempo de respuesta menor posibilidad de Ghosting (Imagen Fantasma o “Estelas”), se mide en milisegundos (ms). Los monitores actuales suelen estar entre 2 y 5 ms, aunque hay que tener en cuenta que existen diferentes tiempos de respuesta:

  • ISO ( White to Black, De Blanco a Negro): Suele tardarse algo más de tiempo y debería ser el “estándar”.
  • GtG (Grey to Grey, De Gris a Gris): Suelen usarlos muchos fabricantes porque es más “rápido” que el ISO (Un LCD tarda más en pasar el color de los píxel de Blanco a Negro, que de Gris a Gris).

Actualmente es raro que se de el efecto de Ghosting (Imagen Fantasma o “Estelas”), aunque cuando aparecieron los primeros LCD/TFT si que se podía apreciar en algunos modelos.

Contraste: A mayor contraste mayor calidad de imagen entre los colores/tonos blanco y negro, aunque actualmente muchos modelos llevan contraste dinámico que no es un constraste real, siendo el contraste real muy inferior normalmente al dinámico.

Brillo, Luminancia o Luminosidad (cd/m2): Se mide en candelas por metro cuadrado, a mayor número, mayor luminosidad, por ejemplo un LCD con 300 cd/m2 tiene menos luminosidad que uno con 400 cd/m2.

TDT Integrado (En esta entrada hay más información sobre la tecnología TDT: TDT (Televisión Digital Terrestre) y HDTV (Televisión de Alta Definición) en España), puede un TDT convencional para recibir la señal actual, o bien un TDT compatible con HDTV 1080p, este último es compatible con señal de television Full HD que será la generación siguiente al TDT actual.

Conexiones de Audio y Video (En estas dos entradas (Conexiones de vídeo más frecuentes y Conexiones de audio más frecuentes) hay más información), aunque a modo de resumen se puede decir que las televisiones actuales suelen llevar:

  • Video compuesto (RCA) o S-Video: Actualmente es poco frecuente que una televisión LCD lleve esta conexión ya que es algo antigua, y esta siendo sustituida por el Euroconector/SCSART.
  • Varios Euroconectores/SCART.: Reciben la señal de video y audio en formato analógico por lo que no son compatibles con HD Ready o superior. Actualmente han sido sustituidos por los conectores HDMI (High-Definition Multi-media Interface, Interfaz Multimedia de Alta Definición) que se implementan en muchos DVDs, Consolas (Ej: PS3 o Xbox360) y Reproductores de Alta Definicion (Blu Ray o HD-DVD).
  • Alguna conexion de Video por componentes: Reciben la señal de video (No admite audio) en formato analógico por canales separados, pueden reproducir contenido en alta definición pero al no incluir el sistema de protección HDCP (Dynamic Host Configuration Protocol, Protocolo Configuración Dinámica de Anfitrión) tienen una resolución inferior.
  • Algún conector VGA (D-Sub15) o Entrada PC: Recibe la señal de vídeo (No admite audio) en analógico, aunque es compatible con altas resoluciones como HD Ready o FullHD, no implementa tecnología HDCP por lo que no puede reproducirlas.
  • Varios conectores HDMI (High-Definition Multi-media Interface, Interfaz Multimedia de Alta Definición): Reciben la señal de video y audio en formato digital encriptado (Usan tecnología DHCP) pueden reproducir contenido HD Ready o superior. En principio cuanto mayor sea el número de conectores HDMI mejor ya que de esta forma nos ahorramos tener que utilizar multiplicadores de puertos HDMI ya que este puerto será el futuro estándar en Audio/Video para las televisiones LCD y los dispositivos (DVDs, Blu Ray, Consolas,…) que conectemos a ellas. Hay que tener en cuenta que las tarjetas gráficas de ordenador actuales tienen conexión HDMI o bien utilizan un conector DVI compatible con HDCP.
  • Una conexión Minijack estéreo de 3,5 mm que funciona como entrada de audio para recibir la señal de audio analógico.
  • Dos conexiones RCA (Blanca y Roja) que funciona como entrada de audio para recibir la señal de audio analógico.
  • Entrada para auriculares.
  • Además de las conexiones anteriores algunos modelos pueden tener salidas de audio para llevar el sonido desde la televisión a otro dispositivo (ej: Una cadena musical, Un Home Cinema,…).

Otras tecnologías:

  • Tecnología de procesado de imagen: Es un software (Programa) que aplica los filtros de imagen, cada fabricante suele tener el suyo propio, por ejemplo:
    • Pixel Plus en Philips
    • Bravia Engine en Sony.
    • XD Engine en LG.
    • DNIe en Samsung.
    • TruD en Sharp.

Hay que tener en cuenta que no todos los procesadores de imagen obtienen los mismos resultados, como comentan en este artículo de El Mundo.

  • HDMI CEC (Consumer Electronics Control): Es una tecnología de comunicación bidereccional mediante el conector HDMI, que puede comunicarse los dispositivos  que haya conectados al televisor, utilizando un único mando, cada fabricante utiliza un nombre propio para esta tecnología (En Peliculas FullHD se puede encontrar más información), por ejemplo:
    • Bravia Sync Theatre en Sony.
    • Anynet+ en Samsung.
    • Bravia Link y EZsync en Panasonic.
    • SimpLink en LG.
    • HDMI Control en Pioneer.
  • Reproducción de imágenes a 60, 50 y 24 Hz (o sus multiplos como algunos televisores de 100 ó 120 Hz)
  • Ambilight de Philips: Es un sistema de retroiluminación utilizado por Philips en la línea de sus televisores planos de plasma y LCD; Ambilight permite regular el contraste dentro de la habitación (Información de Wikipedia), en este video de Youtube se puede ver una demostración de esta tecnología de Philips:

Otra opción puede ser comprar un Proyector (Comentados en esta entrada: ¿Proyector o Pantalla plana (Plasma o LCD)?) que tenga la resolución y conexiones que necesitemos.

Se puede encontrar más información sobre Guías y Consejos para comprar un LCD en:

¿ Los CDs/DVDs son un medio de almacenamiento de datos fiable ?


Actualmente utilizamos como medio de almacenamiento de datos los CDs o DVDs, los cuáles tienen una vida estimada de al menos 25 años, sin embargo en la práctica la vida de los CDs/DVDs puede reducirse bastante debido a:

  • Un mal uso por parte del usuario, si el CD/DVD esta muy rallado será mucho más complicado de leer correctamente apareciendo errores de lectura o incluso siendo ilegible.
  • La calidad del CD/DVD en sí misma, no todos los CDs/DVDs usan los mismos sustratos no tienen la misma duración, por ejemplo hace unos años había en el mercado unos CD-R Kodak Gold Ultima que tenían una vida estima de 100 años (1 siglo).
  • Las condiciones ambientales de almacenamiento (Humedad, Calor,…).

En Noticias3D hay un articulo sobre el tema,  comentan que los CDs que tienen entre 8 y 10 años tienen más posibilidades de estar corruptos o ser díficiles de leer que los CDS/DVDs más actuales. Por lo que parece claro que la mejor opción actualmente es pasar los datos importantes que tengamos en CDs/DVDs “viejos” a CDs/DVDs nuevos de calidad, o bien almacenarlos en otro tipo de soporte como puede ser:

  • Disco duro.
  • Una memoria flash USB.
  • Una Tarjeta de memoria flash (SD, MMC,…).

Que también tienen sus inconvenientes como todo en esta vida ya que por ejemplo:

  • En caso de que falle el disco duro se produce una pérdida masiva de datos.
  • Las memorias flash (USB y Tarjetas) al tener un tamaño reducido pueden perderse fácilmente.