Aula Mentor: Cursos del MEC (Ministerio de Educación y Ciencia) a distancia a través de Internet


El Aula Mentor es un sistema de enseñanza a distancia del MEC (Ministerio de Educación y Ciencia) que proporciona una formación abierta, libre y a distancia a través de Internet, tiene mas de 100 cursos online de diversos tipos, entre ellos de:

  • Informática.
  • PYME (Pequeña y Mediana Empresa).
  • Inglés.
  • Medio Ambiente.
  • Salud y Educación.
  • Cultura y Formación General.
  • Medios Audiovisuales.
  • Electrónica.

Tiene más de 350 aulas repartidas por España e incluso en Centro América y Suramérica.

Los cursos del Aula Mentor tienen varias ventajas frente a otros cursos privados:

  • La enseñanza se realiza a distancia, para ello basta con tener un ordenador con conexión a Internet o bien usar uno de los equipos informáticos que tienen en el Aula Mentor, a un horario determinado.
  • El alumno tiene asignado un tutor que resuelve sus posibles dudas.
  • Al matricularse en el curso, este le da acceso a los materiales del curso (generalmente suelen ser archivos PDF, aunque en algunos casos pueden ser libros o apuntes) y a la mesa de trabajo.
  • Acceso al examen de aprovechamiento.
  • Existen cinco convocatorias anuales, hay que tener en cuenta que durante el mes de agosto la matrícula se “congela” es decir Agosto no cuenta como mes “lectivo” y por tanto aunque no se pueden enviar trabajos para que los revise el tutor si que se puede “avanzar” materia para el mes de septiembre.
  • Una vez finalizado el curso el alumno tiene derecho a:
    • Presentarse a examen en dos convocatorias distintas si no ha superado la primera.
    • Presentarse a examen pasadas tres convocatorias consecutivas sin presentarse.
    • Obtención de un certificado de aprovechamiento (El MEC expide un Certificado de aprovechamiento de “n” horas, el número de horas varía según el curso) tras la superación de la prueba final.
  • El coste del curso (Información del MEC) se compone de:
    • La matricula de cada curso tiene un coste de 48 € (24 €/mes), dando dos meses de matricula.
    • El coste mensual durante el cual estamos matriculados en el curso es de 24 €/mes pasados los dos meses de matrícula.
    • La duración del curso es indefinida, no existe un tiempo fijo para terminar el curso, lógicamente cuanto mayor tiempo estemos matriculados en un curso más “pagaremos” por el mismo, es decir si para hacer un curso tardamos 4 meses (Serían unos 96 €, 48 € matricula de dos meses, más 48 € de dos meses de curso) pagaremos menos que si lo hacemos en 8 meses (Pagaríamos unos 192 €, 48 € de matricula de dos meses, más 144 € por los seis meses de curso).

En el Blog Villagetordesillas Pablo Campos Belloso (Administrador del Aula Mentor) comenta más detalladamente este sistema educativo.

Tecnología TurboCache de nVidia e Hypermemory de Ati, para gráficas de última generación


Antes las gráficas de los ordenadores (tanto de sobremesa como en portátiles) eran de dos tipos:

  1. Integradas en placa base, usando una GPU´s (Graphics Processing Unit, Unidad de Procesado de Gráficos) con prestaciones limitadas y que obtenían su memoria de video de la memoria RAM del sistema, es decir si se tenía 512 Mb de RAM y una gráfica integrada a la que se le asignaban 128 Mb de video, el Sistema trabajaba con 384 Mb de RAM en realidad ya que los otros 128 Mb se los “comía” la grafica.
  2. Dedicada en una tarjeta (PCI, AGP o PCI Express) estos modelos incorporaban su propia memoria con lo cual dejaban la memoria RAM libre en su totalidad para ser usada por el sistema, es decir que si tenemos 512 MB de memoria RAM y una grafíca dedicada de 128 MB, tendremos 512 MB de RAM para el Sistema y 128 MB para gráficos (la memoria de la tarjeta gráfica no se suma a la RAM ya que tiene otro uso diferente).

Actualmente la aparición del bus PCI Express (PCIe) ha dado lugar a unas gráficas “mixtas” (tanto en equipos de sobremesa y portátiles), es decir gráficas dedicadas con una memoria propia pero que también son capaces de usar memoria RAM del sistema en caso necesario (esto mismo se intentó hacer con AGP pero debido a que no tenía un gran ancho de banda parece ser que no se llevo a cabo). Esta tecnología se denomina TurboCache (TC) por parte de nVidia e HyperMemory (HM) por parte de Ati (Imagen con las características de ambos fabricantes de GPU´s (nVidia y Ati) del ensamblador Palit).

De esta forma los fabricantes ahorran costes (que repercuten en el precio final del producto siendo algo más económico) en:

  • El tamaño de memoria (entre los 16 y 128 MB).
  • El bus de datos que suele ser de 64 Bits (en lugar de 128 Bits), aunque también hubo algún modelo con un bus de 32 bits).

Pero también se reducen las prestaciones (estas tarjetas pertenecen a la gama baja y no son las mejores opciones para jugar a juegos actuales ya que su rendimiento es muy bajo) otra cosa es que se usen para tareas que no requieran apenas potencia gráfica 3D como por ejemplo ofimática (procesador de textos, hoja de calculo, bases de datos, internet,…), aún así sus precios son algo “caros” ya que los modelos normales (sin Turbocache ó HyperMemory) son algo superiores dentro de la misma gama de tarjetas gráficas pero cuentan con un rendimiento algo mejor. Normalmente estos modelos se comercializan bajo en nombre de:

  • nVidia GF6200 TC (Turbocache).
  • Ati Xn00 HM (HyperMemory).
  • Ati Xn00 SE (esta ultima denominación no necesariamente esta referida al HyperMemory sino que se suele referir a modelos con un bus de datos de 64 Bits).

Por otra parte los precios de estos modelos TurboCache ó Hypermemory tampoco están tan “lejos” de modelos de la gama baja (Sin TurboCache o HyperMemory) que usan únicamente memoria local de la tarjeta grafica como por ejemplo es el caso de las:

  • GF6200 “normales” (sin Turbocache)
  • GF7300GS
  • Ati X550 (sin HyperMemory)
  • Algunas X1300 con bus de 64 Bits (Modelos SE).

Aunque actualmente muchos de estos modelos estan descatalogados ya que son algo antiguos, y han sido renovados por modelos más actuales.

Más información en:

No se encuentra.com


No se encuentra.com es un sitio web que tiene varias secciones de humor, entre ellas:

Este sitio web se esta basado en el Error404 (The page cannot  be found, No se encontró la página) que muestran los navegadores web (ej: Internet Explorer o Firefox) cuando no encuentran el sitio web solicitado, pero modificando el texto. Hay que tener en cuenta que la página de Error404 es personalizable como se puede ver en Hicks-web.com por lo que no siempre tienen el diseño tradicional que se puede ver en estas imágenes:

Error404IE

Error404

Firewire (IEEE 1394) inalámbrico: Firewireless y USB Inalámbrico: Wireless USB (WUSB)


Según parece los fabricantes de hardware están ultimando los detalles de estas nuevas conexiones las cuales no son más que:

Firewire

  • Una conexión Firewire (1394a ó i.Link) inalámbrica denominada Firewireless: La cual se lleva a cabo a través de un enlace denominado UWB (Ultra Wide Band, Ultra Banda Ancha), dicha conexión permitiría una tasa de unos 480 Mbits/seg (unos 60 Mbytes/seg) lo cual puede ser “escaso” si se compara con Firewire800 (1394b) que llega hasta los 800 Mbits/seg (unos 100 Mbytes/seg), ya que el Firewire400 (1394a) tiene una tasa de transferencia de unos 400 Mbits/seg (unos 50 Mbytes/seg) bastante próxima al futuro Firewireless.

WirelessUSB

  • Una conexión USB inalámbrica denominada Wireless USB (WUSB): La cual también utilizara un sistema UWB (Ultra Wide Band, Ultra Banda Ancha) como el Firewireless; WUSB tendría unas prestaciones similares al USB 2.0 (hasta 480 Mbits/seg, unos 60 Mbytes/seg) en un rango de unos 3 ó 4 metros y de hasta unos 110 Mbits (13,75 Mbytes/seg) en un rango de unos 10 metros, aunque podria llegar hasta 1 Gbps (1.000 Mbps, unos 125 MB/seg). WUSB funcionara entre 3,1 y 10,6 Ghz, este nuevo sistema de conexión tendrá que luchar con otros estándares inalámbricos como por ejemplo:
    • Bluetooth (lo cierto que es actualmente no se puede considerar un competidor serio ya que su tasa de transferencia es bastante baja si se compara con la tasa “prevista” del WUSB), aunque en su última revisión Bluetooth 3.0 (comentada en esta entrada del Blog) puede llegar hasta los 480 Mbps (unos 60 MB/seg) lo cual podría suponer un posible competidor.
    • Wifi 802.11n (esta tecnología se comentó en esta entrada del Blog) actual mejorara su rendimiento de forma significativa, llegando con el borrador (Draft) actual hasta los 300 Mbps (unos 37,5 MB/seg).

WUSB dispondrá de un sistema de encriptación de datos (lo normal es que Firewireless también integre un sistema de encriptación) para aumentar la seguridad de los datos del usuario. Así mismo WUSB tendrá funciones “Sleep”, “Listen” y “Wake” del USB clásico que permitirán al usuario aplicar funciones de ahorro de energía para el dispositivo.

Se puede encontrar más información en:

Bluetooth 3.0: Futuro estándar de comunicaciones entre dispositivos móviles


Bluetooth3

Hace tiempo que los teléfonos móviles dejaron atrás al “vetusto” Infrarrojos, también denominado IrDA (Infrared Data Association) por varias razones:

  1. Ambos dispositivos debían tener los puertos infrarrojos uno frente al otro, en caso de estar muy descolocados la transmisión de datos fallaba.
  2. Ambos dispositivos debían estar muy próximos entre sí, como mucho a 1 metro de distancia.
  3. Era bastante “lento”, IrDA transmitía entre 9.600 bps (Bits por segundo) y 4 Mbps (Megabits por segundo), lo que equivale apróximadamente a 1,17 KB/seg ó 0,5 MB/seg (500 KB/seg).

Actualmente el estándar en comunicaciones entre dispositivos móviles es Bluetooth (BT), que presenta varias mejoras respecto a IrDA como por ejemplo:

  • Mayor distancia de funcionamiento:
    • Clase 1: Hasta 100 metros, suelen utilizarse en algunos adaptadores Bluetooth USB para ordenador.
    • Clase 2: Hasta 10 metros, suelen ser los más habituales en los teléfonos móviles.
    • Clase 3: Hasta 1 metro, este creo que no tendra mucho uso actualmente.
  • No es necesario que los dispositivos tenga el “puerto” Bluetooth uno frente al otro porque Bluetooth usa ondas radio frecuencia (en la banda de 2,4 – 2,48 Ghz), mejorando la comodidad de uso.
  • Mayor velocidad de transmision de datos:
    • Bluetooth v1.2, llega hasta 1,2 Mbps (150 KB/seg).
    • Bluetooth v2.0 + EDR (Enhanced Data Rate), llega hasta 3 Mbps (375 KB/seg).
    • Bluetooth v3.0 + HS (High Speed), oscilara entre 53 (6,62 MB/seg) y 480 Mbps (60 MB/seg) aunque según algunos datos la velocidad de transmisión de datos podría situarse en torno a los 24 Mbps (3 MB/seg). Se basará en el protocolo 802.11 (el mismo que la tecnología Wifi 11g u 11n actual).

El estándar Bluetooth ha dado lugar a a la estandarización de las denominadas redes PAN (Personal Area Network) o WPAN (Wireless Personal Area Network) que permiten crear redes centradas en las personas y en el uso de sus dispositivos móviles (Teléfonos, PDA’s, Portátiles,…), estas redes inlámbricas tienen un alcance de pocos metros, situandose por debajo de las:

  • Redes Locales (LAN: Local Area Network).
  • Redes Locales Inalámbricas (WLAN: Wireless Local Area Network).

Se puede encontrar más información en:

EFI (Extensible Firmware Interface): La BIOS (Basic Input Output System) del futuro.


Los ordenadores tipo PC (Personal Computer) actuales emplean una BIOS (Basic Input Output System) que contiene una serie de rutinas para gestionar el arranque del sistema y la configuración de la misma (ej: Activar o desactivar elementos integrados en la placa base como por ejemplo: Audio, Tarjeta de Red, Puertos (Serie, Paralelo,…), Controladoras (IDE, SATA) adicionales,…), este sistema comenzó a utilizarse en 1.982 por IBM siendo actualmente algo viejo a pesar de que da “buenos” resultados. Sin embargo EFI se utiliza en otros equipos informáticos actuales como por ejemplo los Macintosh (Mac).

Intel esta desarrollando una nueva BIOS denominada EFI (Extensible Firmware Interface) que jubilara a las BIOS actuales en un futuro próximo, dichas EFI por lo que parecen serán Open Source (permitirán la modificación y reventa de un EFI modificado por otro fabricante), así mismo Microsoft también esta interesado en el desarrollo de EFI (según parece EFI seria capaz de emular una BIOS), aunque aún le queda un tiempo para ser un estándar, de hecho según parece el nuevo Windows Vista no soporta EFI (tampoco Windows XP) lo cual da una idea de su escasa implantación actual en ordenadores PC, ya que Windows Vista es el sistema operativo doméstico más actual de Microsoft. Actualmente EFI es compatible con algunas distribuciones Linux que usan elilo (Información de la pagina oficial y de Wikipedia, ambas en inglés), todas las versiones de Mac OS X superiores a la versión 10.4 “Tiger” y algunas versiones de Microsoft Windows.

La interface de EFI permitira controlar las opciones mediante el ratón en lugar de usar los cursores del teclado y varias teclas (ej: Enter para aceptar valores y Escape (Esc) para salir del menu), creando una interface más amigable para el usuario. Por otra parte EFI se situa entre el Sistema Operativo y el Firmware (Es un programa interno similar a la BIOS, que está integrado en muchos dispositivos como: Unidades ópticas, monitores, discos duros, impresoras,… y permite su control e interacción entre el dispositivo y el Sistema Operativo) del Hardware, como se puede ver en esta imagen de Wikipedia:

EFI

Actualmente EFI se desarolla de forma libre a través del UEFI Forum (Unified EFI Forum) que lo componen varias empresas entre ellas:

  • Fabricantes de procesadores como AMD (Advanced Micro Devices) e Intel.
  • Fabricantes de BIOS como American Megatrends (AMI) o Phoenix Technologies (Es raro que no este AWARD que es otro de los fabricantes de BIOS).
  • Otras empresas como por ejemplo: Apple, Dell, HP, IBM, Insyde Software, Lenovo y Microsoft.

Lo que habra que ver es si en estas nuevas EFI implementan sistemas DRM (Digital Rights Management, Gestión Digital de Derechos).

Más información en:

Mega Track: SUV deportivo de la decada de los 90


Actualmente el grupo Aixam-Mega, fabricante francés de coches y pequeños camiones sin carnet, fabricó en los años 90 (en 1.992) el Mega Track un deportivo que no sólo tenía tracción a las 4 ruedas sino que además tenía una suspensión regulable que podía variar la altura entre los 20 cm y los 33 cm (aproximadamente 6 cm más que un Porsche Cayenne Turbo) proporciandole ciertas aptitudes todo terreno entrando en la categoría de SUV (Sport Utility Vehicle) o Crossover actuales. Sus características principales son:

  • Carrocería coupe con 4 plazas (2 + 2).
  • Motor Mercedes V12 de 6.000 cc (6.0 l) con  395 CV a 5.300 Rpms y con un par motor de 570 Nm a 5.800 Rpms.
  • Dimensiones:
    • Largo: 5,08 metros.
    • Ancho: 2,25 metros.
    • Alto: 1,40 metros.
  • Peso: 2.280 Kg (2,28 t).
  • Tracción integral a las 4 ruedas.
  • Suspensión regulable entre 20 y 33 cm.
  • Sólo se fabricaron 5 unidades debido a su alto coste.

Megatrack

Más información en:

Uro VAM-TL


vam-tl

Hace unos días comente la existencia del Uro VAMTAC (Vehículo de Alta Movilidad TÁCtico)/VAM ((Vehículo de Alta Movilidad) en esta entrada, hoy voy a comentar algunos detalles del “hermano” pequeño: el VAM-TL (Vehículo de Alta Movilidad, Táctico y Ligero) que es similar al VAMTAC/VAM, pero tienen ciertas diferencias de hecho no compiten en el mismo “grupo” de vehículos todo terreno. Aunque inicialmente el VAM TL se diseño con una finalidad militar, también tiene un uso como vehiculo de emergencias (ambulancias, vehículos forestales,…) y mantenimiento en zonas de difícil acceso.

vam-tl21

Asi como un uso particular, aunque se estos modelos en su versión civil para particulares (Tanto el VAM como el VAM TL), se fabrican bajo pedido.

vam-tl3

Las características principales del VAM TL son:

  • Tracción a las 4 ruedas.
  • Dos diferenciales (central, trasero) bloqueables al 100% (el diferencial delantero es opcional).
  • Suspensión delantera y trasera con eje rigido (El VAMTAC/VAM lleva suspensión independiente en las 4 ruedas) con ballestas y amortiguadores (opcionalmente puede llevar muelles en el eje delantero).
  • Ángulo de ataque: 60º lleva el cabrestante integrado en el parachoques (El VAMTAC/VAM tiene 72º).
  • Ángulo de salida: 35º (El VAMTAC/VAM tiene 54º)
  • Altura al suelo (bajo eje): 250 mm (El VAMTAC/VAM tiene 440 mm).
  • Altura al suelo (ventral): 410 mm (El VAMTAC/VAM tiene 490 mm).
  • Profundidad de vadeo:  550 mm, es decir 0,55 m (El VAMTAC/VAM de serie llega a 750 mm (0,75 m) y con el kit de vadeo llega a 1.500 mm (1,5m)), aunque es de supone que el VAM TL admitiría algún kit de vadeo profundo que aumente su capacidad.
  • Su precio estimado para la versión civil es de unos 30.000 € sin extras (entre ellos sin Aire Acondicionado), muy lejos de los 70.000 ó 90.000 € que tenía estimados el VAMTAC/VAM en 2.006.

Se puede encontrar más información en:

Guía para comprar un disco duro (HDD: Hard Disk Drive)


DiscoDuro

Actualmente el disco duro (HDD: Hard Disk Drive) es una de las piezas de mayor importancia en un ordenador ya que por norma general suele ser uno (Aunque se pueden tener varios discos duros sin problemas siempre y cuando la placa base o la controladora tenga las conexiones necesarias), es una una de las piezas clave de un ordenador por varias razones:

  1. Son el medio principal de almacenamiento de datos no volátiles (Los datos almacenados no se pierden al apagar el ordenador), almacenan:
    • El Sistema/s Operativo (S.O), aunque se pueden tener varios Sistemas Operativos (ej: Windows y Linux) en particiones diferentes instalados en un mismo disco duro.
    • Software (Programas, Utilidades y/o Juegos) que instalamos para poder usarlos en el Sistema Operativo.
    • Nuestros datos personales (Documentos, Archivos, Descargas,….), siendo aconsejable tenerlos en otra partición diferente de la del Sistema y Programas, en esta entrada se comentan
  2. Determinan el rendimiento del sistema de almacenamiento del equipo, no es lo mismo tener un disco de 5.400 Rpms IDE ATA66 de hace unos años, que un disco duro de 7.200 Rpms SATA300 con NCQ.
  3. Guardan nuestros datos de usuario por lo que un fallo grave en el disco duro podría suponer la pérdida de los mismo, por esta razón es más que aconsejable tener copias de seguridad de los datos (Back-Up) en otros soportes (ej: CDs/DVDs, Memorias Flash USB, Tarjetas de memoria, Discos duros,…).

Hay que tener en cuenta que es conveniente hacer al menos un par de particiones al disco duro (En esta entrada (¿Por qué es bueno hacer particiones a los discos duros?) se comenta más detalladamente el tema de las particiones):

  • Una para el Sistema Operativo y el Software (Programas, utilidades y juegos). Hay que tener en cuente que cada sistema operativo requiere una partición propia para él (salvo que se utilicen maquinas virtuales), es decir que si queremos usar una versión de Windows (ej: Windows XP o Vista) y una distribución Linux (ej: Ubuntu u Open Suse) necesitaremos al menos dos particiones una para cada sistema, además de las que requiera Linux para su uso como por ejemplo las particiones:
    • /Swap donde se ubica el archivo de intercambio o memoria virtual del S.O, es una zona del disco duro en la que se almacenan los datos que no pueden almacenarse en memoria RAM por falta de espacio en memoria RAM.
    • /Home donde se almacenan los datos de usuario, equivale a la carpeta Mis Documentos de Windows.
  • Otra para los datos (documentos, archivos de audio/video, descargas,…) del usuario.

Además de ser una de las piezas críticas de un equipo ya que si tiene algún problema este puede verse reflejado en el funcionamiento del ordenador como por ejemplo:

  • Perdida o corrupción de datos.
  • Bloqueos o cuelgues del sistema.
  • Imposibilidad de reinstalar el sistema operativo si el disco tiene una avería que implica su sustitución.

Para evitar pérdidas de datos importantes por un fallo crítico en el disco duro podemos usar algunas utilidades que hay para diagnosticar dichos fallos, en estas entradas se comentan algunas de ellas:

A la hora de elegir un modelo tenemos que tener en cuenta algunos factores como por ejemplo su:

  • Fiabilidad: Unas marcas suelen ir mejor que otras aunque es relativo la fiabilidad a veces depende más de los modelos en cuestión más que del fabricante; las principales marcas suelen ser Seagate (hace tiempo compro a Maxtor), Western Digital, Hitachi (antes de IBM) y Samsung para discos de 3,5″, en el mercado de 2,5″ hay algún que otro fabricante más (por ejemplo Toshiba o Fujitsu).
  • Garantía: Lo normal es que tengan 3 años (aunque las tiendas suelen dar 2 años que es lo que dice la ley) pero ciertos modelos destinados al mercado empresarial preparados para funcionar 24 / 7 (24 horas al día los 7 días de la semana) o de gama alta tienen hasta 5 años de garantía.
  • Tiempo de vida: Normalmente un disco duro domestico tiene unas 500.000 horas MTBF, mientras que los discos empresariales llegan o superan el 1.000.000 horas MTBF (Usan mecánicas de mayor calidad). Esto no significa que un disco no pueda estropearse a los 4 días de usarlo; ni tampoco significa que vaya a durar 50 años o más. En muchos casos algunos fabricantes estiman una vida útil de unos 5 años, a partir de esa fecha podría dar “problemas”.
  • Prestaciones, están determinadas por los siguientes factores:
    • Revoluciones por minuto (Rpms): A mayor Rpms mayor rendimiento, los discos duros de 3,5″ (estándar de sobremesa) IDE/SATA actuales funcionan a 7.200 Rpms (Hasta hace poco los discos duros  funcionaban a 5.400 Rpms). Actualmente los discos IDE/SATA son de 7.200 Rpms (A excepcion del Western Digital Raptor/Velociraptor que actualmente son los únicos discos SATA de 10.000 Rpms), por otro lado los discos duros SCSI/SAS actuales son de 10.000 ó 15.000 Rpms.
    • Tiempo de acceso (Latencia): Es el tiempo que tarda el disco leer o escribir datos, a menor tiempo de acceso mayor rendimiento. Es un parametro relacionado con las Rpms (A más Rpms, menor tiempo de acceso). Hay varias latencias:
      • Tiempo medio de acceso: Tiempo medio que tarda la aguja en situarse en la pista y el sector deseado; es la suma del Tiempo medio de búsqueda (situarse en la pista) y la Latencia media (situarse en el sector).
      • Tiempo medio de búsqueda: Tiempo medio que tarda la aguja en situarse en la pista deseada; es la mitad del tiempo empleado por la aguja en ir desde la pista más periférica hasta la más central del disco.
      • Latencia media: Tiempo medio que tarda la aguja en situarse en el sector deseado; es la mitad del tiempo empleado en una rotación completa del disco.
    • Densidad de datos: A mayor densidad, mayor rendmiento (y menor número de platos), por ejemplo un disco de 1 TB tendrá peor rendimiento si tiene 4 platos de 250 GB cada uno en lugar de tener 3 platos de 320 GB cada uno, ya que este último almacena mayor cantidad de datos por plato, y puede transmitir mayor cantidad de datos.
    • Tasa de transferencia de datos (Lectura y Escritura): Depende de los parametros anteriores, a más Rpms mayor tasa de transferencia, y a mayor densidad de datos mayor tasa de transferencia. La tasa de transferencia puede ser:
      • Sostenida: Es la tasa de transferencia media, es decir que el disco duro puede transmitir “n” MB/seg ya que los discos duros no tienen una tasa de transferencia “fija” sino que esta oscila entre una tasa mínima y otra máxima, siendo la “media” la de referencia ya que de poco sirve tener varios picos muy altos si no se mantienen.
      • De pico: Son picos de transferencia máxima.
      • Ráfaga (Burst Rate): Es la tasa de transferencia entre la controladora del disco duro y el bus de datos de la placa base, por ejemplo en un disco SATA150 el Burst Rate se aproxima 150 MB/seg, en SATA300 se aproxima a 300 MB/seg, aunque casi nunca se llega al máximo del burts rate.
    • Memoria cache (Bufer): Es una memoria intermedia que tiene el disco duro para almacenar los datos, a mayor cantidad de bufer mejor rendimiento aunque no necesariamente, los discos actuales tienen entre 16 y 32 MB de bufer, aunque es posible que aún queden discos con 8 MB de bufer (de todas formas hay que tener en cuenta que hace tiempo los discos tenían 512 KB de bufer y poco después pasaron a tener 2 MB).
    • Grabacion perpendiacular (PMR): actualmente los discos de mayor capacidad usan esta tecnica que permite aumentar la capacidad de almacenamiento y por tanto su densidad por plato. En esta entrada () hay mas información sobre esta tecnología.
    • Native Command Queuing (NCQ): Es una tecnología que mejora el rendimiento del disco, optimizando las operaciones de lectura, como se puede ver en esta imagen de Wikipedia (en inglés):

NCQ

  • Tamaño: Los discos duros actuales tienen varios tamaños según su finalidad, los tamaños más habituales son:
    • 3,5″: Son los discos que se utilizan de forma estándar en los ordenadores de escritorio.
    • 2,5″: Son los discos que se utilizan de forma estándar en los ordenadores portátiles.
    • 1,8″: Son los discos que se utilizan de forma estándar en muchos reproductores portátiles.
  • Conexión de datos: En principio es indiferente (En esta entrada: Velocidad de transferencia de datos de dispositivos de un PC (2ª parte) se puede encontrar información más detallada) aunque se pueden diferenciar dos sectores:
    • Doméstico: Utilizan conexiones IDE ATA100/133 (ATA100 y ATA133, hasta 100 MB/seg y 133 MB/seg) o Serial ATA (SATA) 150/300 .(150 MB/seg y 300 MB/seg), siendo más recomendable el uso de Serial ATA frente a IDE ya que este último es más antiguo, de todas formas SATA300 tiene suficiente ancho de banda para los discos actuales de 7.200 Rpms y para los Raptor/Velociraptor de 10.000 Rpms, e incluso para los nuevos SSD (Solid State Drive, Dispositivo de Estado Sólido) que se comentaron en esta entrada: SSD (Solid State Drive, Dispositivo de Estado Sólido): Los nuevos discos duros.
    • Profesional/Empresarial/Corporativo: Utilizan conexion SCSI (Small Computer System Interface)160/320 (Hasta 160 MB/seg y 320 MB/seg) y SAS (Serial Attached SCSI) 3 Gbps (unos 300 MB/seg),  SAS sustituira a SCSI en breve. Tanto SCSI160/SCSI320 como SAS tienen suficiente ancho de banda para los discos SCSI/SAS de 10.000 y 15.000 Rpms.

Se puede encontrar más información en:

LabelTag de Lite-On: Escribe texto o imágenes en la capa de datos de los CDs/DVDs


Hace poco comente la existencia de la tecnología Light Scribe y Label Flash en esta entrada del Blog: Light Scribe y Label Flash: Etiqueta tus CDs/DVDs de forma “profesional”, ahora Lite-On nos “sorprende” con una tecnología que permite grabar un texto o imagen en la capa de datos del CD/DVD como se puede apreciar en esta imagen:

La tecnología LabelTag será implementada en el modelo iHAS624, y se puede utilizar en cualquier tipo de CD/DVD (Light Scribe y Label Flash requieren discos específicos), esta tecnología es similar a la DiscT@2 (Disc Tatu) que desarrollo Yamaha hace tiempo y que permitía etiquetar los discos de una forma mucho más legible, como se puede apreciar en esta imagen:

El problema de DiscT@2 (Disc Tatu) es que era necesario dejar un cierto espacio en el borde del CD para poder escribir en el con la consecuente pérdida de capacidad, esto no pasa ni con Light Scribe ni Label Flash ya que usan la otra cara para escribir el texto/imagen en el CD como se puede ver en estas imagenes:

Se puede encontrar más información en:

Seguir

Recibe cada nueva publicación en tu buzón de correo electrónico.