Integración tecnológica: Hasta que punto es “buena”


En lo personal considero que la integración tecnológica de dispositivos es buena especialmente en dispositivos portátiles (Ej: Portátiles, Tablet, Teléfonos móviles,…) donde la capacidad de conectividad y capacidad de ampliación del dispositivo en cuestión es menor que la que tienen los ordenadores de sobremesa;  un claro ejemplo en equipos de sobremesa actuales son losp procesadores (Actualmente integran entre otros elementos: Coprocesador matemático, Memoria cache o el controlador de memoria RAM) o las placas base (Motherboard o Mainboard) actuales que suelen llevar integrados de fabrica:

  • Varios conectores USB traseros y frontales (En algunos casos algunos de estos puertos pueden ser USB 3.0).
  • Varias conexiones Serial ATA (SATA), en algunos casos pueden tener algún puerto eSATA (eXternal Serial ATA) para conectar dispositivos de almacenamiento externo (Ej: Memoria Flash eSATA o Discos duros externos) ofreciendo un rendimiento similar al de un disco duro SATA interno.
  • 1 conexión LAN (Ethernet RJ-45) de 100 Mbps (En algunos casos pueden tener 1 ó 2 conexiones LAN Gigabit Ethernet de 1.000 Mbps).
  •  Una conexión IDE/ATA (Aunque esta en “extinción” porque ha sido sustuida por SATA).
  • Algunos modelos de gama media/alta suelen llevar puertos Firewire (IEEE1394 ó I.Link) que principalmente se utilizan para capturar vídeo desde una camara MiniDV o similar (Siempre y cuando esta disponga de dicha conexión).

Sin embargo algunas placas base de sobremesa también pueden tener integrados otros dispositivos como es el caso de una conexión Wifi o Bluetooth, como por ejemplo el caso de la Zotac H55 miniITX que lleva Wifi 11n (Aunque en este caso puede estar “justificado” porque placa base es de formato reducido (Menor incluso que MicroATX).

Zotac H55 Mini ITX

Básicamente la única ventaja que tiene la integración tecnológica en equipos de sobremesa (Ej: Ordenadores), es la eliminación de dispositivos que tiene el usuario sobre la mesa

Sin embargo bajo mi punto de vista la integración también tiene sus desventajas, entre ellas:

  • Los dispositivos integrados únicamente pueden utilizarse en el equipo que los tiene, si estos fuesen externos (Ej: Lectores de tarjetas, Conexión Wifi USB, Conexión Bluetooth (BT) USB,…) podrían compartirse con otros dispositivos compatibles aunque lógicamente no podrían usarse simultáneamente en dos equipos.
  • Deja los dispositivos  integrados obsoletos en el momento que aparecen nuevas revisiones (Siempre y cuando actualice los dispositivos) como por ejemplo es el caso de:
  • Lectores de Tarjetas de memoria (Los lectores más antiguos suelen tener problemas para “leer” tarjetas de memoria actuales de gran capacidad y/o modelos de reciente aparición).
  • Wifi 11g (Hasta 54 Mbps) y Wifi 11n (Hasta 300 Mbps).
  • Bluetooth 2.0 + EDR (Hasta 3 Mbps) y Bluetooth 3.0 + HS (Hasta 24 Mbps).

Otro ejemplo de integración en periféricos serían las impresoras multifunción que actualmente integran:

  • Impresora.
  • Escáner.
  • Fotocopiadora (Algunos modelos empresariales pueden llevar un ADF: Automatic Document Feeder, Alimentador Automático de Documentos).
  • Fax (En algunos modelos de gama media/alta).

Que pueden “ahorrar” espacio físico utilizando un único dispositivo para varias funciones, sin embargo en caso de que averíe alguna de esas funciones en caso de llevarlo a reparar perdemos el resto de funciones y por otra parte es posible que traiga más cuenta cambiar el dispositivo completo que repararlo.

Tucano Piedini Gel: Elevadores de goma para refrigerar portátiles


Desde hace tiempo la empresa italiana Tucano comercializa unas patas de goma fabricadas en Technogel (Es un tipo de poliuretano ligero, resistente y que apenas se deforma) denominadas Ergo Gel, su función es elevar el portátil unos centímetros de la superficie de trabajo, de esta forma puede refrigerarse mejor. Las patas pueden ponerse/quitarse tantas veces como queramos. Las Tucano Ergo Gel tienen un precio de unos 11 € (Información de Xakata).

Hay que tener en cuenta que este sistema de refrigeración es bastante básico ya que no utiliza ningún ventilador por lo que su efectividad es bastante relativa frente a sistema de refrigeración “forzada” (Con ventilador) que deberían tener mayor rendimiento, aunque sean algo más costosas.

Tipos de píxeles defectuosos en monitores TFT-LCD


Los TFT (Thin Film Transistor, Transistor de Película Fina) – LCD (Liquid Crystal Display, Pantalla de Cristal Líquido) actuales se componen de píxeles que no son más que pequeños puntos que cambian de color para formar las imágenes que muestra el monitor en la pantalla, sin embargo estos píxeles pueden sufrir varios tipos de averías, entre ellas:

  • Pixel muerto (Dead pixel): Aparecen generalmente de color negro (Son más visibles en imagenes claras, debido a que no proporcionan ninguna señal eléctrica, se ven como un “punto” negro).
  • Pixel caliente (Hot pixel): Suelen ser de color rojo, blanco o verde, pueden aparecer con pantallas que se han sobrecalentado o se han utilizado periodos largos de uso (Por esta razón es importante que la pantalla tenga cierta separación con la pared para que pueda “refrigerarse” mejor, evitando un sobrecalentamiento de la misma).
  • Pixel atascado (Stuck pixel): Son los que reciben siempre la máxima señal eléctrica, sin depender de la imagen. Suelen verse como un punto brillante de color verde, azul o rojo.

Normalmente los fabricantes de monitores admiten hasta un cierto número de píxeles defectuosos en sus pantallas, esto viene definido en la garantía del producto y esta organizado en clases, por ejemplo los monitores de Clase I tienen una tolerancia de cero píxeles muertos (Existen hasta 4 clases, a mayor número de clase mayor cantidad de píxeles defectuosos debe tener el monitor para poder utilizar la garantía del producto).

Así mismo los píxeles muertos pueden darse en racimo (Pequeñas areas del TFT defectuosas) con lo cual es más molesto aún, sin embargo si el racimo es lo suficientemente grande muy probablemente entre dentro de la garantía del monitor; evidentemente si esta fuera de garantía la solución más práctica sería sustituir el monitor averiado por uno nuevo porque el coste de la reparación será prácticamente similar al del monitor, por lo que probablemente sea mejor opción comprarlo nuevo.

Sin embargo los píxeles defectuosos no sólo afectan a monitores de ordenadores de sobremesa y portátil sino que también pueden darse en otros dispositivos con pantalla TFT-LCD como por ejemplo:

  • Televisores TFT-LCD.
  • PDA’s (Personal Digital Assistant, Asistente Digital Personal).
  • Teléfonos móviles.
  • Consolas portátiles (Ej: Sony PSP, NintendoDS,…)

Así mismo cabe destacar que la aparición de píxeles defectuosos puede afectar también a los sensores CMOS/CCD de las cámaras de vídeo o fotografía digitales.

Aunque en el mercado existen algunos programas/aplicaciones y métodos “caseros” para “revivir” píxeles aunque generalmente sólo sirve para los pixeles atascados (Stuck Píxeles) y su eficacia no esta asegurada, entre ellos:

Existe un segundo método más rústico que consiste básicamente en realizar una ligera presión con un paño húmedo, pero esto probablemente produzca la aparición de nuevos píxeles defectuosos debidos a una presión excesiva sobre la zona afectada, aunque parece ser que a algún que otro usuario le ha funcionado.

Se puede encontrar más información en:

Software de los ordenadores portátiles


Hace poco me dejaron un Compaq Presario M2000 (Turion64 ML-30) del 2005 aproximadamente, que disponía de dos discos:

  • CD Sistema Operativo Microsoft Windows XP Home Edition Service Pack2 el cual es un CD de instalación de Windows OEM “personalizado” por el fabricante (Es una instalación casi desatendida, requiere poner algunos datos del usuario).
  • DVD denominado: “Application and Driver Recovery DVD” el cual incluye tanto los drivers del portátil como los programas freeware (Ej: Acrobat Reader) como de prueba (Ej: Norton Antivirus).

Sin embargo lo que me ha llamado la atención es que el fabricante ha permitido que el usuario pueda decidir si quiere instalar los:

  • Drivers (Controladores) del DVD que trae el portatil de serie o bien usar algunos más actualizados de la propia pagina del fabricante o bien de los fabricante del hardware.
  • Programas añadidos por el fabricante, ya sean freeware o de prueba.

Actualmente tanto los equipos portátiles como los de sobremesa de marca (Ej: Asus, Hewlett Packard (HP), Compaq, Packard Bell, Acer,…) suelen llevar una partición oculta que contiene una copia del Sistema Operativo (Esta copia del Sistema, normalmente se puede grabar en varios DVDs), pero esta “imagen” del Sistema Operativo que hay almacenada en el disco duro, también incluye los programas (Tanto los freeware como de prueba) y configuración del fabricante por defecto (Incluyendo los Drivers) lo cual supone un “estorbo” porque una vez instalado el Sistema Operativo nos encontramos con:

  • Unos drivers que pueden ser algo antiguos, aunque funcionales.
  • Unos programas de prueba que caducan una vez agotados los días de prueba.

En consecuencia si queremos “actualizar” los drivers y programas del equipo es necesario desinstalar:

  • Los drivers (Controladores) originales integrados por el fabricante (Sólo si tenemos los drivers necesarios para que el equipo funcione correctamente).
  • Los programas que no queremos utilizar.

Por lo que el “sistema” de distribución” de software de este Compaq Presario M2000 me parece más adecuado que los “sistemas” actuales.

Estudio de Square Trade del año 2009 sobre tasas de averías en Portátiles y Netbook


Square Trade recientemente ha realizado un estudio (Tiene fecha del 16 de noviembre de 2009) sobre la fiablidad de los equipos portátiles y los netbook (Ultraportátiles de bajo coste) recogido en este documento PDF que hay en su web.

Según este estudio realizado entre 30.000 equipos portátiles (No se indica el número de modelos de cada fabricante por lo que los resultados pueden considerarse realtivos, ya que si un fabricante vende el doble de equipos que otro es normal que tenga más averías, por ejemplo si el fabricante:

  • “x” vende 100 equipos de lo que se averían 15, la tasa de fallo sería del 15% (Sin embargo si ese mismo fabricante vendiera 1.000 equipos la tasa de error sería de 150 equipos, y si fuesen 10.000 equipos serian de 1.500, en cualquier caso mantendría hipotéticamente una tasa de fallo del 15%.
  • “y” vende 1.000 equipos de los que se averían 200, la tasa de fallo sería del 20% (En 100 equipos se estropearían 20), aunque si vendiera 10.000 equipos habría unos 2.000 equipos con algún tipo de fallo.
  • “z” vende 10.000 equipos de los que se averían 1.000, la tasa de fallo sería del 10% (En 100 equipos se estropearían 10, en 1.000 habría 100 equipos con averías).

Además tampoco se indican los modelos concretos, y por otro lado ya se han dado casos en los que ha habido remesas de tarjetas gráficas o baterías defectuosas aunque en este caso el fallo sería más generalizado.

Por otro lado en el mercado de portátiles existen dos tipos de averías:

  • Aquellas que tiene una reparación como es el caso de un fallo en:
    • Disco duro (Basta con sustituir el disco duro por uno nuevo y reinstalar el Sistema Operativo de nuevo).
    • Memoria RAM (Basta con sustutir el modulo estropeado, salvo que dicho módulo de RAM este soldado a la placa base).
    • Teclado (La opción más rápida y asequible sería poner un teclado USB si es posible, en caso de que haya que sustituirlo su coste es superior al de un teclado de sobremesa).
    • Conexiones por ejemplo: Firewire, USB 2.0, eSATA, Ethernet (RJ-45), Wifi,… (En este caso con una tarjeta PCMCIA, Cardbus o Express Card compatible con el portátil podría solucionar el problema aunque este tipo de tarjetas se utilizan más como tarjetas de “expansión” de puertos.
    • Batería (Bastaría con comprar una nueva o bien una compatible si no esta en el mercado).
    • Cargador/Tranformador de corriente en caso de que no se encuentre en el mercado existen modelos compatibles.
  • Aquellas que aunque pueden reparse debido a su alto coste no merecen la pena, este es el caso de un fallo en:
    • Placa base (Motherboard).
    • Tarjeta gráfica.
    • Monitor.

Por lo tanto la tasa de errores debería tomarse teniendo en cuenta los equipos vendidos y los averiados, cosa bastante dificil ya que posiblemente no haya datos reales sobre ello, aunque este tipo de estudios pueden servir de referencia.

De todas formas algo que me parece más grave es lo se comenta en el estudio (Sobre todo teniendo en cuenta que los equipos portátiles son un bien de consumo bastante “caro”, los modelos más asequibles (Sin tener en cuenta los Netbook que son algo más baratos) rondan los 450 – 500 €, aunque existen modelos de hasta 1.500 € ó más):

Tasa de error en el primer año Netbook vs. Portátiles

Tasa de error en el primer año Netbook vs. Portátiles (Pulsa para ampliar)

Según este estudio, en general los portátiles tienen una tasa de error de entre el 4,7 y 4,2% durante el primer año, lo que significaria que del total de equipos portátiles vendidos (independientemente de la marca) casi un 5% (5 de cada 100 equipos independientemente de su marca/modelo) tendría un fallo. En los Netbook la tasa de errores a pesar de no estar “estudiada” (Llevan poco tiempo en el mercado) tienen una tasa de errores de un 5,8%.

Tasa de error en durante los 3 primeros años

Tasa de error en durante los 3 primeros años (Pulsa para ampliar)

Por otra parte se puede decir que un 4,7% de equipos portátiles sufre algún fallo durante el primer año de garantía (Sin tener en cuenta la tasa de accidentes como pueden ser: Caídas, Golpes, Derrame de líquidos (Ej: Café, Agua, Coca cola,…), sobretensiones,…) y que esta cifra se eleva hasta el 12,7% durante los 2 años de garantía, subiendo al 20,4% a los 3 años de uso; evidentemente un fallo puede ser por ejemplo memoria RAM o Disco duro, este tipo de fallos son reparables en un portátil, sin embargo si el portátil sufre una avería grave, por ejemplo fallo en placa base, tarjeta gráfica o monitor probablemente no merezca la pena arreglarlo porque el coste de este tipo de reparaciones suele tener un coste similar o incluso superior al de un portatil nuevo. Esto si que me parece bastante grave ya que como he comentado los equipos portatiles no son “baratos” y sus reparaciones tampoco.

Tasa de errores por precio (Pulsa para ampliar)

Tasa de errores por precio (Pulsa para ampliar)

En cuanto a la tasa de errores por categorías proyectada para 3 años, según el estudio se da en los:

  • Netbook con un 25,1% (Practicamente 1 de cada 4 ).
  • Portátiles Entry Level (Gama bajas y medias) con 20,6% (Prácticamente 1 de 5)
  • Portátiles Premium (Portátil de gama alta) con 18,1% (Casi 1 de cada 5).

En este caso habría que considerar que marcas se consideran “Entry Level” y cuales “Premium” o bien hasta que baremos de precios y/o modelos de un fabricante pueden considerarse “Entry Level” o “Premium”.

Por último el estudio tiene tabla de fallos clasificada por marca a 2 y 3 años:

Tasa de error proyectada a 2 y 3 años por marca (Pulsar para ampliar)

Tasa de error a 2 y 3 años por marca (Pulsar para ampliar)

Según este estudio por marcas, las más fiables serían Asus y Toshiba (Con un 15,6 y 15,7% respectivamente), sin embargo estos equipos también fallan (Recientemente he visto como un Asus A6000 (A6VM – Q011H) con unos 3 años de uso, morir por un fallo en placa base); seguidas de:

  • Sony (16,8%), es curioso que hace unos años en 2006 fuese la primera de la lista en fiabilidad a pesar de tener un 16% (Similar al actual), aunque en 2008 perdio algunos puestos.
  • Apple (17,4 %), es curioso que en otros ranking que en 2006 haya tenido resultados similares, estaba por la cola.
  • Dell 18,3% , en otros ranking anteriores mantenia un 18%, sin embargo en 2008 subio al 22%
  • Lenovo/IBM (21,5%) , es curioso que hace unos años en 2006 y 2008 fueran más fiables que el estudio actual.
  • Acer (23,3%)
  • Gateway (23,5%), en 2006 tuvo una tasa del 19% aunque en 2008 tuvo una similar a la actual (22%).
  • HP (25,5%), en 2006 tuvo menor tasa de avería (18%) pero en 2008 aumento al 22% (Es curioso que una marca como Compaq comprada por HP en 2002, tenga una fiabilidad 19% estando en la cola, y en 2008 20% de averías este en segunda posición).

Hay que tener en cuenta que en este estudio no se recogen otras marcas de portátiles como por ejemplo:

  • Compaq (Actualmente pertenece a HP pero tienen lineas de productos diferentes).
  • Samsung.
  • LG.
  • Packard Bell (Actualmente pertenece al grupo Acer, información de Wikipedia).
  • Alienware (Actualmente pertenece a Dell).
  • Otros fabricantes de portátiles: Fujitsu-Siemens, MSI, Gigabyte, Ahtec, Beep, Medion,…

A fin de que la muestra del estudio fuese más completa.

El aumento de fallos del año 2008 podría deberse a una remesa de tarjetas gráficas de portátil (GF8400/8600) defectuosas de nVidia asi como a diversos problemas con baterías defectuosas.

Por otro lado es normal que fabricantes que posiblemente venden más portatiles (Ej: Acer y HP) tengan mayor número de averías, ademas la “manzana” (Apple) tampoco se libra de los fallos con un 17,4% que para un fabricante de hardware cerrado y con precios algo más altos de lo habitual, me parece bastante alto.

Por otra parte em vista de que la posibilidad de que un portátil pueda fallar a corto plazo, pasados los dos años de garantía quizas sería interesante plantearse la opción de:

  • Contratar un seguro multirriesgo que tenga coberturas ampliadas respecto a la garantía de fábrica tanto en tiempo de garantías (Algunos establecimientos ofrecen seguros de 3 ó 5 años), así como la cobertura de las mismas (Ej: Daño accidental (Caídas, Golpes, Derrame de líquidos,…), averías eléctricas, mecánicas,…
  • Comprarle una base refigeradora o algun sistema similar al portátil para hacer que trabaje a menor temperatura siempre que sea posible, lo que debería traducirse en un tiempo de vida mayor.

De todas formas mi opinión acerca de los equipos portátiles esta bastante clara, personalmente opino que su uso sólo esta justificado si:

  • Necesitas transportar un ordenador con frecuencia de un sitio a otro.
  • Si no hay sitio en casa para meter un sobremesa.

Para todo lo demas es mejor opción un sobremesa ya que:

  • El coste de las piezas de un sobremesa en cuanto a materiales es inferior, por ejemplo: un disco de sobremesa (3,5″) de 500 GB SATA300 y 7.200 Rpms ronda los 50 €, mientras que un disco duro de portatil (2,5″) de 500 GB SATA y 5.400 Rpms ronda los 70 – 80 € según la marca/modelo de fabricante, es decir que a igualdad de capacidad (500 GB) son entre 20 y 30 € más caros que los sobremesa y con algo menos de rendimiento (7.200 Rpms vs. 5.400 Rpms).
  • En caso de avería “grave” por ejemplo fallo en la placa base, fallo en la tarjeta gráfica o monitor en un sobremesa basta con sustituir la pieza por una nueva o a las malas tirar de segunda mano, mientras que en un portátil si la avería no tiene arreglo posiblemente sea mejor tirarlo y comprar uno nuevo.

Lo que esta claro es que cada vez más los bienes de consumo estan hechos para durar lo justo y necesario (Se puede decir que suelen durar en muchos casos el tiempo de garantía que ofrece el fabricante o poco más), pasado un tiempo prudencial acaban “muriendo”, lejos han quedado esos productos que parecian “indestructibles” posiblemente porque las empresas ahora en lugar de gastar el dinero en:

  • Realizar buenos controles de calidad.
  • Invertir en I + D + I (Investigación + Desarrollo + Innovación tecnológica, antes sólo era I + D, definición de Wikipedia) para mejorar la calidad de sus productos.

Prefieren hacerlo en otros sectores como el Marketing (Teóricamente suele aumentar el número de ventas, aunque no necesariamente), ademas de aumentar los beneficios (Al fin y al cabo las empresas no son una ONG).

Se puede encontrar más información así como otros ranking similares en:

Programas “inútiles” que llevan muchos portátiles actuales


Actualmente los equipos de sobremesa y portátiles que venden muchos de los fabricantes actuales (Ej: Acer, Hewlett-Packard/Compaq, Sony, Asus, …) llevan una gran cantidad de programas cuya utilidad es bastante discutible ya que suelen ser programas:

  • De prueba o evaluación que tienen un tiempo de uso limitado, un ejemplo claro son los antivirus que suelen llevar los equipos portátiles.
  • Servicios que facilitan la configuración de dispositivos (Ej: Encendido/Apagado de la tarjeta Wifi).

Sin embargo estos programas provocan que estos equipos “desperdicien” recursos (Procesador, RAM, Disco duro,…) en procesos (En esta entrada se puede encontrar información sobre listados de procesos) que no tienen una utilidad clara para el usuario. Para solucionar esto hay varias opciones:

  1. Deshabilitar y/o Desinstalar servicios y programas no utilizados:
    • Desinstalar los programas de prueba o evaluación, ya que es software que deja de ser funcional pasado un tiempo, bien limitado a número de usos o pasado un tiempo, la pega de desinstalar programas es que suelen quedar “restos” de los mismos en Windows bien en forma de archivos “sueltos” o bien en claves de registro del Sistema Operativo ya que por regla general los programas no suelen desintalarse al 100%.
    • Revisando la carpeta Inicio (Inicio > Todos los programas > Inicio), en esta carpeta suelen cargarse accesos directos de programas que se cargan junto con Windows.
    • Ejecutando Msconfig (Inicio > Ejecutar: Msconfig > Pestaña  Inicio), y desmarcar/deshabilitar los programas que no necesitemos, esto no desinstala ningún programa solamente evita que se cargen junto con Windows.
    • Ejecutando Services.msc (Inicio > Ejecutar: Services.msc) que es el administrador de servicios, desactivando servicios innecesarios para ello basta con seleccionar el servicio (Ej: Machine Debug Manager, mdm.exe), pinchar dos veces sobre él (O pulsar el botón derecho y pulsar propiedades) y cambiar el tipo de inicio de Automático a Manual (La opción de deshabilitarlo no es aconsejable) ya que con un arranque manual no debería de iniciarse el proceso de forma automática.
  2. Una solución más drástica pero también mucho más efectiva que la anterior es formatear el equipo con un Sistema Operativo “limpio” es decir que no traiga ningún software preinstalado (Tanto las particiones ocultas de recuperación que tienen los equipos portátiles como los discos de recuperación que crean los equipos de marca preinstalan gran cantidad de software de prueba y/o de configuración de dispositivos) e instalarle los drivers y software que necesitamos, aunque en este caso si instalamos un software diferente al que trae el portátil (Por ejemplo si el portátil trae de serie Windows Vista y nosotros lo cambiamos por otro sistema diferente (Ej: Windows XP, Windows 7, Linux,…) es posible que si no disponemos de los drivers y/o programas compatibles suframos algún tipo de problema (Ej: No disponer de audio porque el fabricante no ha sacado el driver correspondiente, incompatibilidad de software con el sistema operativo,…) en tal caso es posible que el fabrincante del equipo nos pregunte que sistema operativo utilizamos y al no ser el mismo que el de fábrica, lo más “lógico” es que para descartar un problema de software “exija” que se le reinstale el Sistema Operativo que llevaba originalmente el equipo, ya que si el fallo desaparece con el sistema original el problema posiblemente sea de software y no de hardware, en caso de que el problema persitiese aún utilizando el sistema original del equipo es muy posible que el problema sea debido a hardware y no a software por lo que posiblemente el fabricante del equipo debería hacerse cargo de la “avería”.

Velocidad de transferencia de datos de dispositivos de un portátil


En una entrada anterior (Resumen de las entradas: Velocidad de transferencia de datos de dispositivos de un PC y Unidades de medida) se vieron los conectores de un ordenador de sobremesa, en esta otra entrada veremos los conectores de un portátil, muchos de ellos son comunes a los equipos de sobremesa (ej: USB 2.0 ó Firewire 1394a).

Los portátiles utilizan conectores internos específicos, estos conectores son definidos por la Personal Computer Memory Card International Association, de este conector hay varios tipos:

  • PCMCIA (Personal Computer Memory Card International Association) o PC Card: la utilizaban los primeros portátiles, son de 16 Bits (es una variante del bus ISA pero mejorado) y existieron varios tipos, hay que tener en cuenta que en muchos casos los conectores eran retrocompatibles es decir un conector PCMCIA Tipo III podía admitir Tarjetas Tipo I y II también pero de formal alterna, no simultánea):
    • Tipo I: Pertenecen a las especificación original (versión 1.x), tienen una interfaz de 16 bit y 3.3 mm de espesor. Las PC Card del Tipo I son utilizadas generalmente para dispositivos de memoria como: RAM, memoria flash, OTP, y SRAM. Actualmente apenas se usan.
    • Tipo  II: Tienen una interfaz tanto de 16 como de 32 bit, ambas con 5.0 mm de espesor. Añadieron soporte para operaciones E/S, permitiendo a los dispositivos conectarse entre si o añadiendo conectores que la computadora portátil no poseía originalmente. Por ejemplo, módems, tarjetas de red y capturadoras de TV. Debido a su delgadez, la mayoría de las tarjetas Tipo II tienen diminutos conectores que son usados para conectarse entre sí.
    • Tipo III: Tienen una interfaz tanto de 16 como 32 bit (al igual que las Tipo II), pero tienen 10.5 mm de espesor, permitiéndoles adaptar funciones que no entrarían en tarjetas del Tipo I ó II. Por ejemplo, discos duros y conectores de gran tamaño.
    • Tipo IV: Desarrolladas por Toshiba, no se pueden considerar estándar porque no han sido oficialmente estandarizadas o sancionadas por la PCMCIA. Tienen 16 mm de espesor.
  • Card Bus: son las PCMCIA de 32 Bits (se puede considerar una evolución de las anteriores), ademas del bus de 32 Bits incorporan tambien un bus de 33 Mhz, tienen una tasa de transferencia de datos de 1066 Mbps (unos 133 MB/seg) compartidos para todo el bus y Acceso Directo a Memoria (DMA), utilizan 3,3v ó 5v; ademas son Plug And Play (Conectar y Usar, como por ejemplo los dispositivos USB, aunque realmente la capacidad PnP es bastante relativa ya que no siempre es “Conectar y Usar”) y permiten Hot Swap (cambio en caliente como los dispositivos USB).
  • Express Card: ha sustituido a los estándares anteriores (Card Bus y PC Card/PCMCIA) y no es compatible con ellos, utilizan 1,5v ó 3,3v, permite conectividad PCI Express (PCIe) 1x (tiene una tasa de transferencia de 2,5 Gigabits/seg, unos 312 MB/seg) y USB 2.0 (480 Mbps, unos 60 MB/seg), existen dos tipos:
    • Express Card 34: Tienen 34 mm ancho.
    • Express Card 54: Tienen 54 mm de ancho.

Hay más información sobre estos conectores en Wikipedia:

En esta imagen se puede ver una tarjeta Card Bus (Arriba), una Express Card 54 (Centro) y otra Express Card 34 (Abajo):

tarjetasportatiles

Los conectores de almacenamiento (ya se comentaron en las entrada: Resumen de las entradas: Velocidad de transferencia de datos de dispositivos de un PC y Unidades de medida) aunque mantienen el nombre (suelen ser IDE o Serial ATA) puede variar tanto el tipo de conexión (por ejemplo los discos IDE de 2,5″ tienen un conector IDE fisicamente diferente a los discos de sobremesa) como el tamaño del dispositivo (las unidades ópticas son de tipo Slim Line más finas que las unidades de 5,25″ convencionales.

En cuanto a los conectores externos (ya se comentaron en la entrada Resumen de las entradas: Velocidad de transferencia de datos de dispositivos de un PC y Unidades de medida) suelen ser más o menos los habituales de un equipo de sobremesa:

  • PS/2: usado por teclados y ratones, cada vez menos frecuente en portátiles, ha sido sustituido por USB.
  • Serie: actualmente no lo implementan, ha sido sustituido por USB.
  • Paralelo: actualmente no lo implementan, ha sido sustituido por USB.
  • USB 1.1 ó 2.0: Actualmente es el puerto estandar para conectar perifericos (impresoras, escáner, memorias flash, discos duros externos,…) en portátiles.
  • Firewire (normalmente de 4 pines): puede ser 1394a (lo mas frecuente), o 1394b (muy raro ya que apenas se encuentra en equipos de sobremesa actualmente).
  • eSATA: actualmente muy pocos portátiles lo llevan pero probablemente con el tiempo sea un estándar ya que tiene mayores prestaciones que USB 2.0 ó Firewire 1394a/1394b.
  • VGA (D-Sub 15): para tener una salida de video analogica a un monitor externo, es el más frecuente.
  • DVI (Salida de video Digital): para tener una salida de video digital a un monitor externo, en principio un cable DVI deberia admitir la conversion a HDMI (DVI – HDMI) perdiendo el Audio (hay que sacarlo con otros cables).
  • HDMI (High-Definition Multi-media Interface, Interfaz multimedia de alta definición): es una salida de video que ha sustituido a DVI al transmitir video y audio en alta definicion (Blu Ray y HD DVD), aunque tiene varias pegas:
    • El contenido que se transmite por HDMI esta cifrado y no permite la copia del mismo.
    • La norma HDMI ha evolucionado desde que aparecio, actualmente va por la v1.3/1.3a/1.3b, por lo que un dispositivo con una norma anterior no tendra las mismas prestaciones.
    • Los conectores HDMI son bastante debiles en comparacion con otros conectores como DVI ó D-Sub que llevan anclajes, por lo que se pueden soltar facilmente.
  • Modem de 56k: tienen una toma RJ-11 (como las de teléfono) para conectarse a internet a través de la linea telefónica, actualmente apenas se usa ya que la banda ancha (ADSL y Cable) cada vez esta más extendida.
  • Red Lan (RJ-45): Normalmente son Fast Eternet (100 Mbps) o Gigabit Ethernet (1000 Mbps).
  • Wifi: Normalmente suelen implementar la norma 11g (Hasta 54 Mbps), aunque los modelos mas actuales pueden llevar la norma 11n (Hasta 300 Mbps).
  • Bluetooth: algunos modelos pueden integrarlo, aunque no es muy frecuente.
  • IrDA: algunos modelos pueden integrarlo, aunque actualmente no es muy frecuente.