Web Analytics
Conecta con nosotros

A Fondo

¿Por qué Linux no despega en el escritorio?

Publicado el

Linux no despega en el escritorio

Statcounter ha presentado resultados de cuota de mercado correspondiente a noviembre, encumbrando a Windows 8.1 como segundo sistema operativo del escritorio solo por detrás de Windows 7 y superando por primera vez a Windows XP.

Aunque los resultados de Statcounter son muy distintos a los ofrecidos por otras firmas de análisis como Net Applications por el uso de distintas métricas todo apunta que Windows 8.1 está despegando ganando usuarios de Windows XP, de Windows 8 ya que es una actualización gratuita y también por ventas de equipos nuevos ahora que el mercado PC ha frenado su caída y empieza a remontar.

En cuanto a Windows 7, no hay quien le tosa, es el rey absoluto del escritorio ganando usuarios mes a mes y ya tiene un 56 por ciento de cuota de mercado. Windows Vista es un sistema residual por debajo del 3 por ciento mientras que el OS X tiene un 8,64 por ciento de cuota de mercado, manteniéndose en esos valores los últimos años y sin posibilidad de ascender a no ser que Apple cambie su estrategia y decida volver a licenciar el sistema a terceros fabricantes.

Linux

¿Y qué pasa con Linux? ¿Por qué no logra despegar en el escritorio?

Según Statcounter (también Net Applications) la cuota de mercado de Linux en el escritorio es meramente testimonial con cifras que van entre el 1 y el 2 por ciento de cuota de mercado. Muy por debajo de la calidad de su código, su potencial y lo que ha logrado en otros segmentos informáticos.

La semana pasada comentábamos el último informe del top-500 de supercomputadores donde Linux arrasa literalmente, gobernando 485 de las máquinas más poderosas del planeta, lo que representa el 97 por ciento del total. Una cuota de mercado inalcanzable para cualquier otra solución tecnológica del mercado, incluyendo el Windows de escritorio.

En movilidad más de lo mismo. Con Android, Ubuntu OS, Tizen o Firefox OS, Linux domina ampliamente los segmentos de smartphones y tablets. Su presencia en el mercado de servidores es muy destacada. También en el sector de embebidos y en estaciones de trabajo profesionales donde se necesite potencia de cómputo y flexibilidad, como las grandes producciones de películas tipo Gravity, El Hobbit o la alucinante Interstellar.

Además, todo indica que Linux será un referente en el gran mercado del wearable y la Internet de las Cosas, además de estar bien posicionado como base para los desarrollos que van a gobernar las nuevas generaciones de sistema de info-entretenimiento para automóviles.

Como vemos, el sistema libre domina o tiene gran presencia en cualquier sector computacional… excepto en el escritorio. ¿Por qué?

¿Es imposible competir con Windows en el escritorio?

¿Por el dominio de Microsoft del canal, del sector corporativo o administrativo?

¿Por la indiferencia de los grandes fabricantes?

¿Por la falta de libertad de elección de sistemas operativos de los OEM?

¿Por la pre-instalación de Windows en el 99% de equipos nuevos?

¿Por la falta de unificación de entornos de escritorio o gestores de descarga en Linux?

¿Es cuestión de falta de aplicaciones?

¿Por las carencias de Linux en el apartado de juegos?

¿Los análisis son erróneos y Linux se utiliza más de lo que indican los informes?

¿Puede una plataforma como Steam OS empezar a cambiar las cosas?

¿Será Google con la fusión de Android y Chrome OS el que inicie el despegue de Linux?

¿Es Linux hoy tan fácil de instalar y compatible con hardware y software como Windows?

¿Importa al usuario de a pie la libertad, gratuidad y flexibilidad de Linux o apuesta por la facilidad de uso de Windows?

¿Solo interesa Linux a los usuarios más experimentados sin interés para el usuario común?

Muchas preguntas (y otra decena que se nos ocurre) a las que dar respuesta. Con mucho usuario de Linux entre nuestros seguidores seguro podemos llegar a conclusiones interesantes. También interesaría que el usuario de Windows explicase porqué no usa o al menos prueba una distribución GNU/Linux.

Coordinador editorial de MC y colaborador habitual en varias webs del grupo TPNET. Al día de todas las tecnologías que pueden marcar tendencia en la industria.

A Fondo

RTX 2070, RTX 2080 y RTX 2080 TI: especificaciones y precios

Publicado

el

Hoy es el gran día, NVIDIA va a presentar las RTX 2070, RTX 2080 y RTX 2080 TI, dos tarjetas gráficas de nueva generación basadas en la arquitectura Turing que ya hemos tenido ocasión de ver en artículos anteriores.

El anuncio de las Quadro RTX de nueva generación nos permitió hacernos una idea de las posibles especificaciones que tendrían las RTX 2080 y RTX 2080 TI, y poco después se produjo una filtración por parte de PNY y de GALAX que nos ha confirmado por completo todo lo que podemos esperar de esa nueva generación.

Creemos que no habrá sorpresas, pero vamos a seguir el evento en directo para contaros todo lo que debéis saber de lo nuevo de NVIDIA. A continuación os dejamos un resumen con las especificaciones y precios que fueron confirmados por ambas ensambladoras.

GeForce RTX 2080 Ti

  • GPU TU102 (arquitectura Turing) fabricada en proceso de 12 nm.
  • 4.352 shaders a 1.350 MHz-1.545 MHz, modo normal y turbo.
  • Tecnología NVLINK.
  • 272 unidades de texturizado.
  • 88 unidades de rasterizado.
  • Bus de 352 bits.
  • 11 GB de memoria GDDR6 a 14 GHz efectivos.
  • TDP de 285 vatios.
  • Necesita dos conectores de alimentación de 8 pines.
  • Precio: desde 999 dólares.

GeForce RTX 2080

  • GPU TU104 (arquitectura Turing) fabricada en proceso de 12 nm.
  • 2.944 shaders a 1.515 MHz-1.710 MHz, modo normal y turbo.
  • 184 unidades de texturizado.
  • 64 unidades de rasterizado.
  • Bus de 256 bits.
  • 8 GB de memoria GDDR6 a 14 GHz efectivos.
  • TDP de hasta 285 vatios.
  • Necesita un conector de alimentación de 8 pines y otro de 6 pines. Hay modelos con dos conectores de 8 pines.
  • Precio: desde 699 dólares.

GeForce RTX 2070

  • GPU TU104 (arquitectura Turing) fabricada en proceso de 12 nm.
  • 2.304 shaders. Frecuencias no concretadas.
  • 144 unidades de texturizado.
  • 64 unidades de rasterizado.
  • Bus de 256 bits.
  • 8 GB de memoria GDDR6 a 14 GHz efectivos.
  • TDP no concretado.
  • Necesitará como mínimo un conector de alimentación de 8 pines.
  • Precio: desde 499 dólares.

El CEO de NVIDIA, Jen-Hsun Huang, ha confirmado la apuesta de la compañía por el trazado de rayos. NVIDIA RTX ha sido definida como una plataforma completa que incluye tanto software (herramientas de desarrollo) como hardware. Lo más interesante en este sentido ha sido su explicación de las ventajas y las desventajas del trazado de rayos y del rasterizado, dos técnicas de renderizado que se han adoptado de forma conjunta para dar forma a un renderizado híbrido que aprovecha el potencial de cada una de ellas.

En el caso de la rasterización destaca por ser capaz de ofrecer un alto nivel de paralelizado, pero tiene problemas a la hora de generar una gran cantidad de efectos de luces y sombras en tiempo real. Lo que conocemos como iluminación global puede ser un gran problema por el consumo de recursos que implica, una cuestión que se resuelve con el trazado de rayos.

Jen-Hsun Huang ha vuelto a hacer referencia a la demostración de Star Wars bajo el Unreal Engine 4 con trazado de rayos y hasta se ha permitido una pequeña broma antes de hablar por fin de Turing, una arquitectura que introduce un nuevo valor en términos de rendimiento: los GigaRays. Una GTX 1080 TI es capaz de generar 1,21 GigaRays por segundo, cifra que Turing eleva a 10 GigaRays por segundo.

En términos de potencia bruta la comparación es clara: fueron necesarias cuatro tarjetas gráficas Volta para mover la demo de Star Wars con 55 ms entre fotogramas. Con una tarjeta gráfica basada en Turing podemos lograr 45 ms entre fotogramas, y con una GTX 1080 TI tendríamos unos desastrosos 308 ms entre fotogramas. La diferencia es abismal, de eso no hay duda, y todo gracias a la especialización que ofrecen los núcleos RT.

Seguimos con detalles interesantes a nivel de rendimiento y potencia bruta. Turing combina shaders (núcleos CUDA), núcleos ténsor y núcleos RT para ofrecer una potencia bruta de 78 Tera RTX-OPS, cifra que según el CEO de NVIDIA apenas llega a 12 en una GTX TITAN X.

Ya os habíamos anticipado en artículos anteriores que esos tres grupos de núcleos iban a jugar un papel fundamental en esta nueva generación trabajando juntos, y al final nuestras previsiones se han cumplido.

Volvemos a la importancia del trabajo conjunto de los diferentes bloques de núcleos presentes en Turing y al uso del renderizado híbrido que describimos al inicio. Turing es capaz de mejorar por seis el rendimiento de Volta en trazado de rayos.

En las dos imágenes inferiores podéis ver el resultado que ofrece una misma imagen con trazado de rayos y sin trazado de rayos. Acompañamos otras dos imágenes comparativas para que tengáis más claras las diferencias que puede marcar el trazado de rayos.

La demo técnica que ha mostrado NVIDIA funcionando sobre una única tarjeta gráfica Quadro RTX 6000 es verdaderamente impresionante, basta ver la calidad de la iluminación y los reflejos en tiempo real para darse cuenta de ello. Os dejamos el vídeo a continuación por si queréis volver a verlo.

Jen-Hsun Huang también ha aprovechado para hablar de la inteligencia artificial asociada a la GPU y a los núcleos ténsor. Su potencial es increíble como podemos ver en la imagen adjunta, ya que es capaz de aprender a hacer un montón de cosas: colorear imágenes, convertir un boceto en una imagen 3D, segmentar imágenes, aplicar cambios de color en tiempo real, crear imágenes con resoluciones muy elevadas y contribuir con diagnósticos en el sector médico.

El pre-procesado para mejorar y elevar la calidad de imagen acabará llegando al mundo del videojuego “en un futuro” según el CEO de NVIDIA, una tecnología que se apoya sobre una red neural (inteligencia artificial) para conseguir la mejor calidad de imagen posible. Esta tecnología aplicada a juegos se conoce como NVIDIA NGX (Neural Graphics Framwork for AI Image Processing).

Como técnica de suavizado de bordes logra unos resultados fantásticos como podemos ver en la imagen que os dejamos a continuación. Es una captura de la demo Infiltrator, funcionando en resolución 4K bajo una única tarjeta gráfica a 60 FPS.

Pasamos a hablar de juegos concretos que están muy cerca de su lanzamiento y empezamos con Shadow of the Tomb Raider. El trazado de rayos aplicado a las sombras ofrece una mejora notable, como podemos ver en la imagen adjunta. Las sombras se generan en tiempo real y lucen mucho mejor.

No podía faltar Metro Exodus, la nueva entrega de la conocida franquicia de 4A Games que como sabemos apuesta por el trazado de rayos. Acompañamos unas imágenes comparativas en las que podemos ver las diferencias que marca el trazado de rayos aplicado a la iluminación global del juego.

Confirmado, Battlefield V aprovechará las posibilidades del trazado de rayos. NVIDIA GeForce RTX mejora de forja drástica la calidad de los reflejos como podemos ver en las imágenes adjuntas. En la escena del fuego reflejado en las ventanas la diferencia resulta aún mayor y en general marca un avance importante frente al renderizado tradicional. La calidad de los reflejos es sublime.

En la siguiente imagen podemos ver los juegos que soportarán GeForce RTX. Hay una lista considerable. Tenemos también las imágenes oficiales de los tres modelos que ha confirmado NVIDIA, os los dejamos al inicio donde acompañamos la descripción detallada de las RTX 2070, RTX 2080 y RTX 2080 TI.

Las GeForce RTX 2070, RTX 2080 y RTX 2080 TI se pueden reservar desde hoy mismo, pero no llegarán al mercado hasta el 20 de septiembre. En general hemos visto un aumento importante en términos de potencia bruta y a nivel tecnológico, gracias a la apuesta de NVIDIA por el trazado de rayos, pero también se ha elevado el consumo (TDP de 285 vatios) y el precio de venta frente a la generación anterior.

Continuar leyendo

A Fondo

Del iPad a Surface: Inicios, presente y futuro del tablet

Publicado

el

Futuro del tablet

El futuro del tablet es bastante oscuro. Destinado a “reemplazar al PC” según aseguraban hace unos años algunos gurús poco informados, las ventas siguen en caída libre y la industria acumula quince trimestres consecutivos de descensos. Con 41 millones de unidades vendidas en el último trimestre, sigue siendo un segmento importante, pero los nuevos modelos no ofrecen innovaciones significativas que inviten a los actuales propietarios a actualizar y tampoco se atisba una masa importante de nuevos compradores.

La apuesta por los teléfonos inteligentes de gran tamaño -phablet- con tamaños de pantalla que se acercan a la de los tablets básicos está canibalizando las ventas por abajo, mientras que el fortalecimiento del grupo de ordenadores personales con los formatos convertibles o “2 en 1” que ofrecen funciones de PC y también los de tablets, es una compra más interesante para una buena parte de usuarios. Así las cosas ¿Qué mercado queda para la tableta electrónica? Hoy repasamos los inicios, presente y futuro del tablet.

Inicios

Aunque los usuarios más jóvenes o menos informados puedan pensar que los tablets fueron inventados por Apple con los iPad, nada más lejos de la realidad, ya que cuarenta años antes, la genial película de Stanley Kubrick ’2001: una odisea en el espacio’ (1968) mostraba a los astronautas Bowman y Poole manejando un dispositivo electrónico cuyo diseño podría pasar perfectamente por un tablet actual.

Antes, incluso, en la década de los 50, fue presentado un dispositivo electrónico denominado “Styalator” destinado a escritura electrónica y más tarde, el grupo de investigación militar estadounidense DARPA desarrolló el “Rand Tablet” que avanzaba funciones similares.

Dicen las crónicas, que inspirado en lo visto en la película de Kubrick, el profesor, programador y científico Alan Kay creó a finales de los años 60 el concepto Dynabook, que convertido en prototipo unos años después en la gran Xerox, sentó las bases de diseño de ordenadores portátiles y Tablets PC que se comercializarían después.

Es considerado el primer “tablet” tal y como ahora lo conocemos. Tras pasar por Atari como jefe científico, Kay llegó al departamento de I+D de Apple Computer de la mano de Steve Jobs. Su influencia es, por tanto, considerable.

Desarrollo

El iPad no fue el primer tablet de Apple y ya en 1983 había presentado como extensión a los ordenadores Apple II un dispositivo denominado “Bashful”. En 1987 presentó un vídeo conceptual de un tablet futurista que respondía ante comandos de voz y que era conocido como “Knowledge Navigator”.  Hasta la llegada del iPad, Apple desarrolló una decena de modelos que ya mostraban como podría ser su tablet.

Otro dispositivo a destacar llegó de la mano de Samsung en 1989. Conocido como Gridpad Pen Computer, tenía una pantalla de 10 pulgadas y soportaba lápices ópticos sobre sistema operativo MS-DOS.

En 1991, un investigador de Microsoft presentó un vídeo que contemplaba algunas funciones de interacción con pantallas táctiles que son básicas en los tablets actuales, como el “deslizar para desbloquear” que precisamente fue objeto de debate y demanda de Apple contra Samsung por cuestiones de copyright.

En 1994, la compañía Knight Ridder, presentó su propio tablet, un diseño rectangular con pantalla táctil de cristal y soporte para dedos y lápices ópticos que seguramente marcó el camino a seguir por otros fabricantes.

A finales de siglo, Intel presentó el Intel Web tablet, uno de los equipos creados por el gigante del chip dentro de su rama de investigación y en la tarea de explorar nuevas oportunidades de negocio. La comercialización del Intel Web Tablet fue cancelada para no competir con sus socios OEM cuando las primeras unidades iban a ser enviadas a la cadena minorista Circuit City. Diez años antes de la llegada al mercado del iPad, podría haber dado un vuelco completo a la historia posterior.

A comienzos del siglo XXI, Microsoft acuñó el término Tablet PC para denominar los dispositivos que a medio camino entre tablets y computadora personal móvil estaba gobernado por el sistema operativo Windows XP Tablet PC Edition. Fruto del mismo, se comercializaron modelos como el HP Compaq tablet PC con un teclado girable y desmontable, primeros conceptos de los modernos ‘2 en 1’ y que hoy podemos ver concretados (siempre guardando las distancias) en modelos como el HP Elitebook Revolve.

En 2001, el por entonces primer productor mundial de móviles, presentó el Nokia 510 webtablet, de casi dos kilos de peso y una pantalla táctil de diez pulgadas que dicen provocó un gran interés en el CEO de Apple, Steve Jobs.

LG Electronics presentó en la feria CeBIT de Hannover de 2001 un dispositivo denominado iPad Digital. Salvando las grandes distancias tecnológicas era idéntico en diseño, concepto y funcionamiento a los tablets actuales. Estaba gobernado por un sistema operativo basado en el kernel Linux 2.4, contaba con soporte para dedos y lápices ópticos, un navegador web integrado, reproducía archivos MP3 y MPEG4, ranuras de expansión flash y PCMCIA, así como acceso a Internet mediante norma Wi-Fi 802.11b.

LG nunca llegó a comercializarlo aunque es una buena muestra de lo que llegaría en la primera década del siglo XXI. Un montón de modelos que puedes revisar en este resumen de historia de los tablets.

iPad, llega la revolución

Apple no inventó el concepto tablet, aunque es justo reconocer que el lanzamiento del iPad original a comienzos de 2010 supuso “un antes y un después” en el segmento. Un empeño del propio Jobs cuya visión y sentido de la oportunidad aprovechando el tirón del iPhone, quedó patente para abrir al público masivo una categoría de producto que hasta entonces era meramente testimonial y reducido a ámbitos profesionales y/o corporativos.

“Mágico y revolucionario” según Jobs, el marketing de Apple apuntó fuerte por un dispositivo que mejoraba todo lo visto anteriormente en el sector. Esencialmente se trataba de un iPhone gigante con diseño espectacularmente ligero y delgado gracias a un chasis unibody de aluminio.

Su pantalla IPS multitáctil de 9,7 pulgadas ofrecía un funcionamiento perfecto junto al sistema operativo iPhone OS 3.2, versión optimizada para tablets del que la firma empleaba en los iPhones y como ella derivada del Mac OS X. El uso de un SoC ARM de diseño propio y bajo consumo permitía una autonomía de diez horas. Contaba con versiones Wi-Fi y 3G y ofrecía accesorios como un dock con teclado.

Su éxito comercial fue rotundo vendiendo 300.000 unidades en su primer día de comercialización, más de 3 millones en los primeros tres meses y 15 millones de unidades cuando se lanzó el iPad 2. Ventas millonarias que se han sucedido en próximas generaciones del iPad y que han tenido gran influencia en el desarrollo global de tablets del resto de fabricantes.

Apple reforzó su posición en tablets con el lanzamiento del ipad Mini, un tablet de la “generación de las 7 pulgadas” aunque en realidad su pantalla casi roza las 8 pulgadas. Más que en la batalla de precio (el iPad mini no es económico), se trataba más de una batalla de posicionamiento en un formato más manejable y que ofrecía mayor diversidad al usuario.

También fue un éxito de ventas. Los iPad siguen siendo los modelos de tablet más vendido del mercado, Apple el primer fabricante e iOS (hasta septiembre de 2013) la primera plataforma del mercado.

Android – Google Nexus

Cuando Apple presentó el iPad, Google estaba inmerso en la batalla por superar con Android las ventas de los iphones. El lanzamiento del tablet no pasó desapercibido y los principales fabricantes Android comenzaron a comercializar modelos bajo el sistema, con diseños similares al iPad.

Uno de los primeros modelos fue el Galaxy Tab de Samsung presentado en la feria IFA de Berlín de 2010. Con 7 pulgadas ofreció otro tipo de segmento de mercado, el tablet de bajo coste y tamaño. A partir de ahí, y bajo la misma estrategia Google de ofrecer el sistema operativo libre de royalties, llegó en 2010-2011 un buen puñado de primeros modelos bajo el Android 3.0 como el Motorola Xoom, el Toshiba Tablet u otro Galaxy tab esta vez de 10 pulgadas para competir directamente con el iPad.

A partir de ahí, la historia es más conocida. A medida que Apple actualizaba los iPad llegaban al mercado incontables modelos con Android de múltiples formatos y precios. Era cuestión de tiempo que Apple perdiera el dominio en tablets a manos de Android al igual que sucedió en el sector del smartphone. También por primera vez, los ingresos relacionados con el hardware de tablets alcanzaron la paridad entre las dos plataformas líderes. Un hecho significativo ya que históricamente Apple había conseguido acaparar la mayor parte de los ingresos por tablets.

Otro hecho destacable tuvo lugar cuando Google comercializó sus propios tablets serie Nexus como ya había hecho en smartphones. La firma de Internet utilizó a socios como ASUS o Samsung para la fabricación de unos tablets Nexus bien acogidos por el mercado, por su relación características/precio y por incluir las versiones de Android más avanzadas y puras, sin interfaces personalizadas.

Windows – Microsoft Surface

A pesar de vender dispositivos Tablet PC una década antes de la llegada del iPad y al igual que sucedió con la llegada del iPhone, el lanzamiento del tablet de Apple pilló con el paso cambiado a grandes actores de la industria como Microsoft e Intel. Los intentos con los modelos de nueva generación bajo un sistema no específico para tablets como Windows 7, solo tuvieron algo de aceptación en el mercado empresarial.

La respuesta llegó con Windows 8, criticado por un sector de amantes del escritorio clásico Windows pero con un soporte completo para tecnologías táctiles y una interfaz que más allá de los gustos de cada usuario, era completamente nueva.

Además, Microsoft introdujo un movimiento estratégico relevante que ya había empleado Google: ofrecer tablets bajo marca propia Surface, lo que hizo preguntarse a los analistas si Microsoft quería convertirse en una segunda Apple ofreciendo hardware y software. El movimiento fue criticado por algunos socios como Acer aunque Microsoft explicó que solo pretendía impulsar la plataforma. Plataforma que acabó en fiasco con la variante Surface RT (Windows 8 RT con ARM).

Como el resto de fabricantes, Microsoft también ha abierto la puerta a tablets de medio formato y bajo precio, que en buen número están llegando al mercado con un precio tan competitivo como los modelos con Android, gracias a la subvención de los procesadores Intel Atom utilizados y la entrega gratuita a los OEM del sistema Windows 8.

Hoy, Surface Pro es una referencia en el segmento del 2 en 1 premium, con modelos similares de todos los OEM que trabajan con Windows.

¿Cuál es el futuro del tablet?

Tras el espectacular aumento de ventas de dos dígitos en los años posteriores al lanzamiento del iPad el segmento se ha desangrado. Su inspiración para la creación de ordenadores híbridos (detachables, convertibles, 2 en 1…) ha sido clara y por ahí viene una parte de la caída de ventas.

Otra llega del aumento del ciclo de reemplazo de los propios tablets. Simplemente, los nuevos modelos no ofrecen innovaciones destacables que convenzan al usuario de la necesidad de actualizar.

En cuanto a la marca blanca y los mercados emergentes que han sostenido el segmento en años anteriores, son los que más están cayendo y solo las soluciones de muy bajo coste como los Fire de Amazon parece tienen camino para seguir creciendo, aún sin beneficios (en venta de hardware) para su productor.

Por último, tenemos la era del phablet. La extraordinaria versatilidad de los móviles inteligentes modernos ha canibalizado la venta de cámaras fotográficas compactas o la de consolas portátiles de videojuegos. Y también la de tablets. A medida que siguen aumentando de tamaño y se acercan a las diagonales de los tablets, la apuesta primaria del usuario es la de adquirir un móvil y en este escenario el futuro del tablet es bastante oscuro. ¿Tienes tablet? Piensas en actualizar? ¿Nuevo comprador? ¿Cómo ves el futuro del tablet?

 

Continuar leyendo

A Fondo

Cinco mitos sobre PS4 Pro y Xbox One X pendientes de superar

Publicado

el

Incluso antes de que se produjera su llegada hemos visto una gran cantidad de mitos sobre PS4 Pro y Xbox One X, dos consolas que representan una renovación intergeneracional previa a la llegada de PS5 y Xbox Two.

La primera en llegar fue PS4 Pro, una consola que según los primeros rumores iba a hacer “temblar” a los PCs gaming de gama alta. Lo mismo ocurrió con Xbox One X, la consola generó muchas expectativas porque llegó después (tuvo más tiempo de desarrollo y el coste de los componentes bajó) y porque Microsoft había aprendido la lección con Xbox One: no podía permitirse lanzar una consola menos potente que la de Sony.

Ha pasado mucho tiempo y los que nos leéis habitualmente conocéis al detalle todas las claves que definen a Xbox One X y PS4 Pro, pero hemos podido ver que todavía se mantienen algunos mitos sobre PS4 Pro y Xbox One X, y por eso hemos querido hacer este artículo especial, en el que os vamos a explicar cinco mitos sobre ambas consolas que deberíamos superar de una vez.

Como siempre esperamos que os guste y os invitamos dejar vuestras dudas en los comentarios.

¿Por qué llegaron PS4 Pro y Xbox One X al mercado?

Antes de entrar a ver los mitos sobre PS4 Pro y Xbox One X creemos que es importante hacer una valoración previa de las razones que llevaron a Sony y Microsoft a lanzar dichas consolas. Esto nos permitirá entender su existencia, y también esos mitos.

Tanto PS4 como Xbox One llegaron al mercado a finales de 2013, es decir hace casi cinco años. Las dos están basadas por completo en un hardware tipo PC, cosa que no ocurría con PS3 y Xbox 360. Esto contribuyó a reducir los costes de desarrollo y de producción, y también a simplificar la creación de videojuegos multiplataforma, pero agudizó sus carencias y facilitó una comparativa directa con el hardware en PC.

Poco después de llegar quedó claro que PS4 era algo así como un PC gaming de gama media (en 2013) y Xbox One un PC gaming de gama media-baja (también en 2013). Esta realidad fue haciendo mella en los consumidores, que vieron como el hardware de ambas consolas era arrollado por el PC durante los años venideros. PS4 era conocida por mover juegos en 1080p a 30 FPS y Xbox One hacia lo propio pero a 720p y 30 FPS en la mayoría de los casos.

Por contra un PC de gama media de 2016 ya era capaz de mover juegos de forma fluida en 1080p y 1440p (una GTX 1060 de 6 GB puede hacerlo sin problemas y es gama media). Sony y Microsoft se dieron cuenta del problema de alargar la vida de un hardware obsoleto y vieron la necesidad de lanzar una renovación intergeneracional con mayor potencia gráfica para evitar la pérdida de usuarios a favor del PC. La respuesta de la compañía nipona fue PS4 Pro, y la del gigante de Redmond Xbox One X.

Ambas llegaron acompañadas de una serie de promesas comunes. Al final no todas se han cumplido, y aquellas que no lo han hecho han sobrevivido en forma de mitos sobre PS4 Pro y Xbox One X que todavía campan a sus anchas por Internet.

1.-PS4 Pro y Xbox One X son consolas 4K

Es falso, y de todos los mitos sobre PS4 Pro y Xbox One X es sin duda el más extendido. No son consolas 4K. Hay algunos casos concretos en los que ambas consolas han conseguido mover juegos en 4K nativo, pero no es la norma general. La realidad es que las dos recurren en la mayoría de los casos al reescalado o a la resolución dinámica para poder ofrecer una resolución “cercana” al 4K y mantener una fluidez aceptable.

En el caso de PS4 Pro hablamos más bien de una consola “2K”, ya que suele partir de resoluciones 1440p o 1600p y a partir de ahí reescala a 4K aplicando un filtrado específico para reducir la pérdida de calidad que se produce al estirar los píxeles.

Xbox One X también tira de reescalado aunque por lo general suele partir de resoluciones 1800p, lo que le permite conseguir una calidad de imagen superior al tener una mayor base de píxeles sobre la que “estirar”.

Por lo que respecta a la resolución dinámica no hay misterio. Es una técnica que parte de una resolución determinada y la reduce en función de la carga gráfica para mantener una tasa de fotogramas por segundo determinada. En DOOM 2016 para Xbox One X el juego renderiza a 3.840 x 2.160 píxeles (4K), pero la resolución dinámica reduce dicha resolución hasta 3.072 x 2.160p si es necesario para mantener una tasa de FPS constante.

2.-PS4 Pro y Xbox One X utilizan tecnología revolucionaria

Un mito sobre PS4 Pro y Xbox One X que aprovecha el desconocimiento de muchos usuarios sobre las “profundidades” del sector tecnológico. Recuerdo un momento en concreto, cuando dije que Xbox One X estaba descompensada a nivel de procesador y me llovieron las críticas. Algunos lo pintaban como revolucionario por las optimizaciones que había introducido Microsoft, yo decía que una CPU Jaguar siempre sería una CPU Jaguar (pobre en potencia), y al final tuvo que venir el jefe de la división Xbox a darme la razón.

Ninguna de las dos consolas utiliza una tecnología revolucionaria, ni a nivel gráfico ni de CPU, y tampoco en lo que respecta a la arquitectura interna ni a la distribución de la memoria, y el motivo es muy sencillo, fueron desarrolladas desde el principio con el objetivo de ser compatibles con Xbox One y PS4. Cualquier cambio revolucionario habría complicado sobremanera esa compatibilidad, un error que ni Sony ni Microsoft podían permitirse.

Puede que con la llegada de PS5 y Xbox Two veamos alguna innovación verdaderamente revolucionaria, sobre todo en lo que respecta a integración CPU y GPU, pero PS4 Pro y Xbox One X no son más que dos variantes “vitaminadas” de PS4 y Xbox One.

3.-Utilizan una GPU de gama alta

Es totalmente falso, y lo vamos a ver con datos concretos. A continuación repasamos las especificaciones concretas de las GPUs que utilizan PS4 Pro y Xbox One X y las comparamos con las de una Radeon RX 480. Adjuntamos la fecha de lanzamiento de cada una para evitar dudas.

GPU de PS4 Pro (septiembre de 2016)

  • 2.304 shaders a 911 MHz.
  • 144 unidades de texturizado.
  • 64 unidades de rasterizado.
  • Bus de 256 bits con GDDR5 (217 GB/s de ancho de banda).

GPU de Xbox One X (noviembre de 2017)

  • 2.560 shaders a 1.172 MHz.
  • 144 unidades de texturizado.
  • 32 unidades de rasterizado.
  • Bus de 384 bits con GDDR5 (326 GB/s de ancho de banda).

Radeon RX 480 (junio de 2016, gama media)

  • 2.304 shaders a 1.266 MHz.
  • 160 unidades de texturizado.
  • 32 unidades de rasterizado.
  • Bus de 256 bits con GDDR5 (256 GB/s de ancho de banda).
  • Precio de lanzamiento: 229 dólares.

Como podemos ver tanto Xbox One X como PS4 Pro utilizan una GPU que debemos considerar como gama media y que no está verdaderamente preparada para mover juegos exigentes en resoluciones 4K con un nivel alto de calidad gráfica. Otro de los mitos sobre PS4 Pro y Xbox One X queda aclarado y superado.

Imagen cortesía de Anandtech.

4.-Son como un PC gaming de gama alta

Otro de los mitos sobre PS4 Pro y Xbox One X más extendidos, y que de hecho está unido al anterior. Ya hemos visto que la GPU de ambas consolas es de gama media, pero éste no es el único componente que importa así que vamos a hablar de otros dos componentes fundamentales: procesador y memoria.

Ambas consolas utilizan memoria GDDR5 unificada, algo muy positivo ya que se trata de un componente de alto rendimiento utilizado en tarjetas gráficas de gama media y de gama alta. Sin embargo el procesador que montan ambas consolas está basado en la arquitectura Jaguar de AMD, una solución de bajo consumo y bajo rendimiento que como podéis ver en las gráficas adjuntas tiene un rendimiento inferior al de los Intel Atom serie Z3000.

Estoy convencido de que ahora entenderéis por qué he cuestionado siempre el uso de un procesador Jaguar en ambas consolas y el enorme cuello de botella que representa. Por si todavía quedan dudas recuerdo que lo ha reconocido el propio Phil Spencer.

5.-Consiguen una calidad gráfica muy elevada

Otro gran mito sobre PS4 Pro y Xbox One X que se repite como si de un mantra se tratase. Ya hemos explicado el tema del reescalado y el de la resolución dinámica, dos elementos que por sí mismos ya reducen de forma visible la calidad gráfica de los juegos, pero debemos tener en cuenta además que los ajustes que se utilizan no equivalen nunca a lo que podríamos considerar como una configuración muy alta o ultra en PC.

En la mayoría de los casos los juegos de PS4 Pro y Xbox One X utilizan ajustes gráficos que encajan con lo que podemos considerar como “calidad media” en PC. Esto se deja notar en muchos aspectos, aunque los más fáciles de identificar son la calidad de las texturas, la calidad de las sombras, la oclusión ambiental y la distancia de visión.

El vídeo que acompañamos al final, cortesía de DigitalFoundry, nos ayuda a ilustrar a la perfección todos los mitos sobre PS4 Pro y Xbox One X que hemos tratado en este artículo.

Continuar leyendo

Lo más leído