Tasa de fallos de componentes informáticos en 2011


En la web francesa Hardware.fr publicaron este pasado mes de abril de 2011 unas tablas con las tasas de error de algunas piezas de hardware informático (Así mismo el año pasado publicaron otro artículo similar el 12 de abril de 2010 y otro el 2 de diciembre de 2010), entre las que figuran tablas de:

Anuncios

¿Cuál es el cuello de botella actual de un equipo informático?


El Bottleneck o Cuello de botella (Definición de Alegsa.com.ar) supone una limitación del rendimiento del equipo informático (PC) para realizar una función determinada (Por lo tanto el cuello de botella de un ordenador siempre a va ser su pieza más lenta). El cuello de botella puede ser debido a:

  • Un componente “lento” de por si (Ej: Un disco duro) que ralentiza al resto del sistema a pesar de ser actual (Los componentes electrónicos (CPU, Gráfica, Chipset,…) actualmente no suponen un cuello de botella).
  • Un desaprovechamiento de un componente “nuevo” porque el componente “base” en el que se instala es “lento” (Esto puede ocurrir por ejemplo al actualizar un equipo antiguo con piezas nuevas que sean compatibles), como por ejemplo utilizar:
    • Una tarjeta gráfica AGP 8x en un puerto 4x.
    • Una tarjeta PCIe 16x en una ranura limitada a PCIe 4x porque no existe ninguna ranura PCIe de  16x.
    • Un disco duro ATA133 en un equipo con conectores SATA300 (Normalmente disponen al menos de un conector ATA133 para conectar dispositivos antiguos y/o unidades ópticas).
    • Una memoria RAM DDR400 en una placa que admita DDR2 667 (Teniendo en cuenta que las placas base que soportan dos tipos diferentes de memoria no la admiten de forma simultánea o mezclada, es decir que sólo se puede usar un tipo de memoria u otro).
    • Una memoria RAM DDR2 1066 en una placa base que admita hasta DDR2 667 o bien el controlador de memoria del procesador (Caso de los Athlon64) este limitado a DDR2 667.

Lógicamente la sensación de lentitud (Dentro de un orden claro está) es diferente para cada usuario y por lo tanto el cuello de botella puede estar en piezas diferentes en función de la tarea a desarrollar por ejemplo para:

  • Editar video si no queremos que el proceso se “eternice” suele ser necesario tener:
    • Un buen procesador (Basicamente es el que se encarga de procesar el video).
    • Una buena cantidad de RAM.
  • Jugar de forma fluida a los últimos juegos 3D con gran resolución (Ej: Full HD ó 1080p: 1.920 x 1.080 píxeles) y buen nivel de detalle (Aplicación de filtros) será necesario tener:
    • Una buena tarjeta gráfica que sea capaz de procesar los recursos gráficos que genera el juego en cuestión.
    • Un procesador “bueno”.
    • Bastante RAM.

Hay que tener en cuenta que el cuello de botella sólo se vería reflejado en usos muy concretos (Como por ejemplo los comentados anteriormente), ya que un equipo actual para ofimática con un par de años aunque se actualizase algún componente no tendría un cuello de botella significativo ya que las aplicaciones que utiliza no requieren un gran consumo de recursos, si acaso se podría cambiar el disco duro por otro más rápido pero dado que actualmente:

  • Los equipos domésticos en general usan discos de 7.200 Rpms (Los equipos profesionales pueden usar discos de 10.000 ó 15.000 Rpms, aunque actualmente tienden a utilizar SSD, comentados en estas entradas del Blog: Guía para comprar un SSD (Solid State Device, Dispositivo de Estado Sólido) y SSD (Solid State Drive, Dispositivo de Estado Sólido): Los nuevos discos duros).
  • Los discos de 10.000 Rpms SATA están “limitados” a los Velociraptors de Western Digital, pero tienen una relacion €/GB pémisa (Los modelos de 74 y 150 GB rondan los 150 €, el de 300 GB ronda los 203 €, el de 450 GB los 280 y el de 600 GB ronda los 285 €), ya que los precios en muchos casos se acercan a de un SSD  de entre 60 y 120 GB.
  • Los SSD tienen una relación €/GB también pésima (Aunque su rendimiento es muy superior a cualquier disco duro actual de 10.000 ó 15.000 Rpms), un SSD de 60 GB ronda los 160 € y uno de 120 GB ronda los 320 €, aunque también hay SSD de 40 GB y alto rendimiento (Ej: Mushkin Callisto, comentado en esta entrada del Blog) que rondan los 108 € sin gastos de envío.

Para un uso puramente ofimático posiblemente siga interesando tirar de discos duros mecánicos por su relacion precio/prestaciones frente a los SSD.

Sin embargo existe un cuello de botella “endémico” en cualquier equipo informático actual de altas prestaciones: El disco duro, desde el inicio de la informática los sistemas de almacenamiento electro-mecánicos (Discos duros) han sido siempre el cuello de botella, un disco duro:

  • UDMA33 (ATA33) podía transmitir hasta 33 MB/Seg aunque luego su rendimiento secuencial y aleatorio era inferior (Utilizaban cables de 40 hilos y 40 contactos).
  • UDMA66 (ATA6) podía transmitir hasta 66 MB/Seg aunque luego su rendimiento secuencial y aleatorio era inferior (A partir de ATA66 hasta ATA133 se utilizaron cables de 80 hilos y 40 contactos).
  • UDMA100 (ATA100) podía transmitir hasta 100 MB/Seg aunque luego su rendimiento secuencial y aleatorio era inferior.
  • UDMA133 (ATA33) podía transmitir hasta 133 MB/Seg (Que es justamente el máximo ancho de banda del bus PCI) aunque luego su rendimiento secuencial y aleatorio era inferior.
  • Serial ATA 150 (SATA150) podía transmitir hasta 150 MB/Seg (Que es justamente el máximo ancho de banda del bus PCI) aunque luego su rendimiento secuencial y aleatorio era inferior (Lo normal es que el bus SATA utilice una conexión PCI express o PCIe).
  • Serial ATA 300 (SATA300 ó SATA2) transmite hasta 300 MB/Seg (Que es justamente el máximo ancho de banda del bus PCI) aunque luego su rendimiento secuencial y aleatorio era inferior.
  • Serial ATA 600 (SATA600 ó SATA3) podía transmitir hasta 600 MB/Seg (Que es justamente el máximo ancho de banda del bus PCI) aunque luego su rendimiento secuencial y aleatorio era inferior.

Hay que tener en cuenta que en el caso de los discos UDMA/ATA el ancho de banda disponible se repartía entre los dos dispositivos (Master y Slave)  conectados al mismo canal (Primario o Secundario) y que el acceso a los mismos (Ej: Pasar datos de un disco duro Master en canal primario al disco Slave del mismo canal) no era simultáneo sino alterno. Con el nuevo conector Serial ATA (SATA) ha habido una mejora en este sentido ya que cada dispositivo tiene su ancho de banda propio (En el caso de SATA150, cada conector tiene hasta 150 MB/Seg de ancho de banda, en el caso de SATA300/SATA2 cada conector tiene hasta 300 MB/Seg y en el caso de SATA600/SATA3 cada conector tiene 600 MB/Seg) puesto que la conexion es “directa” desde el dispositivo (Ej: Disco Duro) al conector SATA de la placa base.

Actualmente para equipos de gama alta parece más interesante tener un SSD o dos en RAID 0 (Stripping) junto con un disco duro de alta capacidad para:

  • Instalar el Sistema Operativo y el Software (Programas y Juegos) en el SSD, acelerando así la carga del Sistema Operativo y la apertura de los programas/juegos).
  • Dejando el disco duro de gran capacidad para almacenar los datos de usuario (Documentos, Música, Videos/Películas, Descargas,…) los cuales no necesitan tener una apertura “instantánea”.

El mayor problema es que si necesitamos un SSD de cierta capacidad 120 GB o más el precio del mismo se “dispara”.

Ya que actualmente los ordenadores tienen un gran ancho de banda en los componentes puramente electrónicos como por ejemplo:

  • FSB de los procesadores, por ejemplo el bus Hyper-Transport (HTT) v3.0 de los ultimos AMD tiene una frecuencia de funcionamiento de 3,2 Ghz con 32 Bits, que se traduce en un ancho de banda bidireccional de 51,2 GB/Seg, y los primeros Intel Nehalem (Core i7 y derivados) tienen un bus similar al HTT de AMD denominado QPI (QuickPath Interconnect), el cual funciona a 3,2 Ghz con 20 Bits, que se traduce en un ancho de banda bidireccional de 25,6 GB/Seg.
  • Memoria RAM DDR2 PC1066 que tiene 8.500 MB/Seg (8,5 GB/Seg).
  • Memoria RAM DDR3 PC1600 que tiene 12.800 MB/Seg (12,8 GB/Seg).
  • Bus Serial ATA300 (Hasta 300 MB/Seg).
  • Bus Serial ATA600 (Hasta 600 MB/Seg).
  • USB 3.0 (Hasta 4,8 Gbps, unos 4.800 Mbps que equivalen a unos 600 MB/Seg).
  • Bus PCI Express (PCIe) que en su version 1.1 tiene un ancho de banda de 250 MB/Seg y por canal, es decir que un bus PCIe de 1x tendría 250 MB/Seg (El bus PCI anterior tenía como máximo 133 MB/Seg para todos los dispositivos que hubiese conectados a él), mientras que un PCIe 16x tendría 4 GB/Seg (4.000 MB/Seg) ya que serían 16 canales de 250 MB/Seg cada uno (250 MB/Seg x 16  canales = 4.000 MB/Seg). Actualmente el bus PCIe va por la versión 2.0 el cual dobla la tasa de transferencia, hastalos 500 MB/Seg y el próximo bus PCIe 3.0 la vuelve a doblar hasta los 1.000 MKB/Seg.

Sin embargo los discos duros mecánicos actuales (Lo habitual es que sean de 5.400 ó 7.200 Rpms) por muy rápidos que sean (Aun siendo de 10.000 ó 15.000 Rpms)  no pueden aprovechar al 100% el ancho de banda que proporcionan los buses de datos actuales como por ejemplo:

  • SATA o S-ATA (Serial ATA).
  • SCSI (Small Computers System Interface (Sistema de Interfaz para Pequeñas Computadoras).
  • SAS (Serial Attached SCSI que es utiliza unos conectores similares a SATA pero incompatibles con él).

Por lo que el rendimiento del sistema de almacenamiento supone un cuello de botella bastante grande, por varias razones:

  1. Alta latencia: Los discos duros de 7.200 Rpms (Los más comunes en entornos domésticos) tiene un tiempo de busqueda según fabricante en el mejor de los casos de unos 9 ms aproximadamente (Mientras que un disco de 10.000 Rpms segun datos de los fabricantes tienen el mejor de los casos 4,2 ms y los discos de 15.000 Rpms tienen entre 3,4 y 3,5 ms), esto se traduce en una pérdida de rendimiento debido a que para buscar un dato es necesario invertir bastante “tiempo” si se compara con un SSD los cuales tienen latencias (Tiempo de Acceso) inferiores a 1 ms.
  2. Tasa de transferencia: Que en el caso de los discos duro no se mantiene sostenida sino que fluctua entre un maximo y un minimo, de hecho las gráficas de los Benchmark de disco duro como: HD Tach y HD Tune, muestran que un disco duro SATA300 de 500 GB y 7.200 Rpms actual puede tener una tasa media de transferencia de datos de unos 100 MB/Seg pero esta tasa no es sostenida a lo largo de toda la superficie del plato sino que suele empezar por una tasa ligeramente superior a la media para ir bajando progresivamente hasta por debajo de la media pudiendo llegar a ser la tasa mínima aproxidamente entre el 50 (En torno a los 50 MB/Seg) ó el 60% (En torno a los 60 MB/Seg) de la velocidad media.
  3. IOPS (Input Output Per Second, Operaciones de Entrada – Salida Por Segundo): Los discos duros tienen muy bajo rendimiento en este sentido.

Estos problemas y otros derivados de la propia arquitectura de los discos duros inicialmente se “resolvieron” con los niveles RAID (Hay más información en esta entrada del Blog) que permitian mejorar:

  • El rendimiento del sistema de almacenamiento (Ej: RAID 0, Stripping)
  • La seguridad física de los datos, como es el caso de RAID 1 (Mirroring o Espejo).
  • El rendimiento y la seguridad física de los datos, como es el caso de RAID 5 y RAID 10.

Sin embargo aun utilizando sistemas RAID los discos duros tienen una latencia alta, por lo que los SSD (Solid State Device, Dispositivos de Estado Sólido) basados en memorias Nand Flash como las que se utilizan en las memorias flash USB o las tarjetas de memoria, son los que realmente proporcionaran al usuario un gran rendimiento ya que apenas tienen latencia (Es inferior a 1 ms) y sus tasas de transferencia de datos son muy altas (Si queremos mayor rendimiento aún se puede optar por un RAID 0 con dos o más SSD); sin embargo hasta que no sus precios sean “asequibles” (Actualmente un SSD “bueno” de entre 60 y 80 GB ronda los 160 – 225 €) no se podrá eliminar el lastre de rendimiento que suponen los discos duros para los sistemas operativos actuales y sus programas/juegos.

De hecho en el futuro no sería raro ver equipos de altas prestaciones con Un SSD para el Sistema (Incluyendo los Programas y Juegos) para que le de “rapidez” al equipo, mientras que los datos de usuario se guardan en:

  • Discos duro electro-mecánicos de gran capacidad (Actualmente existen discos de hasta 2 TB y ya que comenta que en breve saldrán los discos de 3 TB).
  • Discos duros híbridos (HHD: Hybrid Hard Drive, Discos Duro Híbrido que son discos electro-mecánicos pero con algo de memoria Flash para acelerar el rendimiento, en esta entrada del Blog hay más información)  de gran capacidad (Actualmente Seagate tiene un modelo con estas caracteristicas denominado Seagate Momentus XT, es un disco duro de 2,5″ (Tamaño de disco duro de portátil) que esta disponible en tres capacidades: 250 GB, 320 GB y 500 GB que cuenta con 4 GB de memoria Nand Flash SLC, pero teniendo en cuenta que el modelo de 320 GB ronda los 123 € y el modelo de 500 GB los 148 € parece mejor opción este último ya que por unos 30 € más se consiguen 180 GB “extras”).

Estudio de Square Trade del año 2009 sobre tasas de averías en Portátiles y Netbook


Square Trade recientemente ha realizado un estudio (Tiene fecha del 16 de noviembre de 2009) sobre la fiablidad de los equipos portátiles y los netbook (Ultraportátiles de bajo coste) recogido en este documento PDF que hay en su web.

Según este estudio realizado entre 30.000 equipos portátiles (No se indica el número de modelos de cada fabricante por lo que los resultados pueden considerarse realtivos, ya que si un fabricante vende el doble de equipos que otro es normal que tenga más averías, por ejemplo si el fabricante:

  • “x” vende 100 equipos de lo que se averían 15, la tasa de fallo sería del 15% (Sin embargo si ese mismo fabricante vendiera 1.000 equipos la tasa de error sería de 150 equipos, y si fuesen 10.000 equipos serian de 1.500, en cualquier caso mantendría hipotéticamente una tasa de fallo del 15%.
  • “y” vende 1.000 equipos de los que se averían 200, la tasa de fallo sería del 20% (En 100 equipos se estropearían 20), aunque si vendiera 10.000 equipos habría unos 2.000 equipos con algún tipo de fallo.
  • “z” vende 10.000 equipos de los que se averían 1.000, la tasa de fallo sería del 10% (En 100 equipos se estropearían 10, en 1.000 habría 100 equipos con averías).

Además tampoco se indican los modelos concretos, y por otro lado ya se han dado casos en los que ha habido remesas de tarjetas gráficas o baterías defectuosas aunque en este caso el fallo sería más generalizado.

Por otro lado en el mercado de portátiles existen dos tipos de averías:

  • Aquellas que tiene una reparación como es el caso de un fallo en:
    • Disco duro (Basta con sustituir el disco duro por uno nuevo y reinstalar el Sistema Operativo de nuevo).
    • Memoria RAM (Basta con sustutir el modulo estropeado, salvo que dicho módulo de RAM este soldado a la placa base).
    • Teclado (La opción más rápida y asequible sería poner un teclado USB si es posible, en caso de que haya que sustituirlo su coste es superior al de un teclado de sobremesa).
    • Conexiones por ejemplo: Firewire, USB 2.0, eSATA, Ethernet (RJ-45), Wifi,… (En este caso con una tarjeta PCMCIA, Cardbus o Express Card compatible con el portátil podría solucionar el problema aunque este tipo de tarjetas se utilizan más como tarjetas de “expansión” de puertos.
    • Batería (Bastaría con comprar una nueva o bien una compatible si no esta en el mercado).
    • Cargador/Tranformador de corriente en caso de que no se encuentre en el mercado existen modelos compatibles.
  • Aquellas que aunque pueden reparse debido a su alto coste no merecen la pena, este es el caso de un fallo en:
    • Placa base (Motherboard).
    • Tarjeta gráfica.
    • Monitor.

Por lo tanto la tasa de errores debería tomarse teniendo en cuenta los equipos vendidos y los averiados, cosa bastante dificil ya que posiblemente no haya datos reales sobre ello, aunque este tipo de estudios pueden servir de referencia.

De todas formas algo que me parece más grave es lo se comenta en el estudio (Sobre todo teniendo en cuenta que los equipos portátiles son un bien de consumo bastante “caro”, los modelos más asequibles (Sin tener en cuenta los Netbook que son algo más baratos) rondan los 450 – 500 €, aunque existen modelos de hasta 1.500 € ó más):

Tasa de error en el primer año Netbook vs. Portátiles

Tasa de error en el primer año Netbook vs. Portátiles (Pulsa para ampliar)

Según este estudio, en general los portátiles tienen una tasa de error de entre el 4,7 y 4,2% durante el primer año, lo que significaria que del total de equipos portátiles vendidos (independientemente de la marca) casi un 5% (5 de cada 100 equipos independientemente de su marca/modelo) tendría un fallo. En los Netbook la tasa de errores a pesar de no estar “estudiada” (Llevan poco tiempo en el mercado) tienen una tasa de errores de un 5,8%.

Tasa de error en durante los 3 primeros años

Tasa de error en durante los 3 primeros años (Pulsa para ampliar)

Por otra parte se puede decir que un 4,7% de equipos portátiles sufre algún fallo durante el primer año de garantía (Sin tener en cuenta la tasa de accidentes como pueden ser: Caídas, Golpes, Derrame de líquidos (Ej: Café, Agua, Coca cola,…), sobretensiones,…) y que esta cifra se eleva hasta el 12,7% durante los 2 años de garantía, subiendo al 20,4% a los 3 años de uso; evidentemente un fallo puede ser por ejemplo memoria RAM o Disco duro, este tipo de fallos son reparables en un portátil, sin embargo si el portátil sufre una avería grave, por ejemplo fallo en placa base, tarjeta gráfica o monitor probablemente no merezca la pena arreglarlo porque el coste de este tipo de reparaciones suele tener un coste similar o incluso superior al de un portatil nuevo. Esto si que me parece bastante grave ya que como he comentado los equipos portatiles no son “baratos” y sus reparaciones tampoco.

Tasa de errores por precio (Pulsa para ampliar)

Tasa de errores por precio (Pulsa para ampliar)

En cuanto a la tasa de errores por categorías proyectada para 3 años, según el estudio se da en los:

  • Netbook con un 25,1% (Practicamente 1 de cada 4 ).
  • Portátiles Entry Level (Gama bajas y medias) con 20,6% (Prácticamente 1 de 5)
  • Portátiles Premium (Portátil de gama alta) con 18,1% (Casi 1 de cada 5).

En este caso habría que considerar que marcas se consideran “Entry Level” y cuales “Premium” o bien hasta que baremos de precios y/o modelos de un fabricante pueden considerarse “Entry Level” o “Premium”.

Por último el estudio tiene tabla de fallos clasificada por marca a 2 y 3 años:

Tasa de error proyectada a 2 y 3 años por marca (Pulsar para ampliar)

Tasa de error a 2 y 3 años por marca (Pulsar para ampliar)

Según este estudio por marcas, las más fiables serían Asus y Toshiba (Con un 15,6 y 15,7% respectivamente), sin embargo estos equipos también fallan (Recientemente he visto como un Asus A6000 (A6VM – Q011H) con unos 3 años de uso, morir por un fallo en placa base); seguidas de:

  • Sony (16,8%), es curioso que hace unos años en 2006 fuese la primera de la lista en fiabilidad a pesar de tener un 16% (Similar al actual), aunque en 2008 perdio algunos puestos.
  • Apple (17,4 %), es curioso que en otros ranking que en 2006 haya tenido resultados similares, estaba por la cola.
  • Dell 18,3% , en otros ranking anteriores mantenia un 18%, sin embargo en 2008 subio al 22%
  • Lenovo/IBM (21,5%) , es curioso que hace unos años en 2006 y 2008 fueran más fiables que el estudio actual.
  • Acer (23,3%)
  • Gateway (23,5%), en 2006 tuvo una tasa del 19% aunque en 2008 tuvo una similar a la actual (22%).
  • HP (25,5%), en 2006 tuvo menor tasa de avería (18%) pero en 2008 aumento al 22% (Es curioso que una marca como Compaq comprada por HP en 2002, tenga una fiabilidad 19% estando en la cola, y en 2008 20% de averías este en segunda posición).

Hay que tener en cuenta que en este estudio no se recogen otras marcas de portátiles como por ejemplo:

  • Compaq (Actualmente pertenece a HP pero tienen lineas de productos diferentes).
  • Samsung.
  • LG.
  • Packard Bell (Actualmente pertenece al grupo Acer, información de Wikipedia).
  • Alienware (Actualmente pertenece a Dell).
  • Otros fabricantes de portátiles: Fujitsu-Siemens, MSI, Gigabyte, Ahtec, Beep, Medion,…

A fin de que la muestra del estudio fuese más completa.

El aumento de fallos del año 2008 podría deberse a una remesa de tarjetas gráficas de portátil (GF8400/8600) defectuosas de nVidia asi como a diversos problemas con baterías defectuosas.

Por otro lado es normal que fabricantes que posiblemente venden más portatiles (Ej: Acer y HP) tengan mayor número de averías, ademas la “manzana” (Apple) tampoco se libra de los fallos con un 17,4% que para un fabricante de hardware cerrado y con precios algo más altos de lo habitual, me parece bastante alto.

Por otra parte em vista de que la posibilidad de que un portátil pueda fallar a corto plazo, pasados los dos años de garantía quizas sería interesante plantearse la opción de:

  • Contratar un seguro multirriesgo que tenga coberturas ampliadas respecto a la garantía de fábrica tanto en tiempo de garantías (Algunos establecimientos ofrecen seguros de 3 ó 5 años), así como la cobertura de las mismas (Ej: Daño accidental (Caídas, Golpes, Derrame de líquidos,…), averías eléctricas, mecánicas,…
  • Comprarle una base refigeradora o algun sistema similar al portátil para hacer que trabaje a menor temperatura siempre que sea posible, lo que debería traducirse en un tiempo de vida mayor.

De todas formas mi opinión acerca de los equipos portátiles esta bastante clara, personalmente opino que su uso sólo esta justificado si:

  • Necesitas transportar un ordenador con frecuencia de un sitio a otro.
  • Si no hay sitio en casa para meter un sobremesa.

Para todo lo demas es mejor opción un sobremesa ya que:

  • El coste de las piezas de un sobremesa en cuanto a materiales es inferior, por ejemplo: un disco de sobremesa (3,5″) de 500 GB SATA300 y 7.200 Rpms ronda los 50 €, mientras que un disco duro de portatil (2,5″) de 500 GB SATA y 5.400 Rpms ronda los 70 – 80 € según la marca/modelo de fabricante, es decir que a igualdad de capacidad (500 GB) son entre 20 y 30 € más caros que los sobremesa y con algo menos de rendimiento (7.200 Rpms vs. 5.400 Rpms).
  • En caso de avería “grave” por ejemplo fallo en la placa base, fallo en la tarjeta gráfica o monitor en un sobremesa basta con sustituir la pieza por una nueva o a las malas tirar de segunda mano, mientras que en un portátil si la avería no tiene arreglo posiblemente sea mejor tirarlo y comprar uno nuevo.

Lo que esta claro es que cada vez más los bienes de consumo estan hechos para durar lo justo y necesario (Se puede decir que suelen durar en muchos casos el tiempo de garantía que ofrece el fabricante o poco más), pasado un tiempo prudencial acaban “muriendo”, lejos han quedado esos productos que parecian “indestructibles” posiblemente porque las empresas ahora en lugar de gastar el dinero en:

  • Realizar buenos controles de calidad.
  • Invertir en I + D + I (Investigación + Desarrollo + Innovación tecnológica, antes sólo era I + D, definición de Wikipedia) para mejorar la calidad de sus productos.

Prefieren hacerlo en otros sectores como el Marketing (Teóricamente suele aumentar el número de ventas, aunque no necesariamente), ademas de aumentar los beneficios (Al fin y al cabo las empresas no son una ONG).

Se puede encontrar más información así como otros ranking similares en: