Conecta con nosotros

A Fondo

Cinco mentiras sobre las tarjetas gráficas: No caigas en estos engaños

Publicado

el

El mundo de las tarjetas gráficas ha experimentado un desarrollo enorme durante las últimas décadas, y ha vivido etapas verdaderamente revolucionarias en las que ha conseguido saltos tecnológicos que, en su momento, no nos habríamos atrevido ni siquiera a soñar. Recordad, por ejemplo, cuando llegó al mercado la primera solución de 3DFX, la Voodoo 1, que puso patas arriba el mundo de la aceleración 3D, o cuando aterrizó la GeForce 256, que contaba con soporte de «transformación e iluminación» («T&L»), y podía realizar cálculos de iluminación y geometría.

Por desgracia, con los avances que se han ido produciendo a lo largo de todos estos años también han ido apareciendo numerosas mentiras, y algunas medias verdades, que han hecho mucho daño a los usuarios con menos experiencia, y que han llegado a afectar al sector de las tarjetas gráficas creando mitos con un efecto de bola de nieve que, en algunos casos, todavía no se ha llegado a superar por completo.

Sobre ese tema ya tuvimos la oportunidad de hablar en su momento en este artículo, donde vimos cinco mitos sobre las tarjetas gráficas que todavía se mantienen como una especie de mantra, y que debemos superar de una vez por todas. Hoy quiero compartir con vosotros cinco mentiras de plena actualidad que están muy extendidas, que actúan como engaños muy peligrosos, y que pueden llevarnos directamente a hacer una mala compra.

Sé que el mercado gráfico está intratable, pero esta situación no va a durar para siempre. Espero que este artículo os ayude a estar preparados para acertar en la compra de vuestra próxima tarjeta gráfica cuando la tormenta se disipe y empecemos a ver, por fin, el Sol en el horizonte. Como he anticipado en el párrafo anterior, nos vamos a centrar en cinco mentiras actuales que están asociadas, por tanto, a las nuevas generaciones gráficas y las nuevas tecnologías que han ido surgiendo. Si tenéis cualquier duda, podéis dejarla en los comentarios.

1.-Necesitas 16 GB de memoria gráfica

Cinco mentiras sobre las tarjetas gráficas

Es una mentira tan grande como aquella que decía, en 2016, que necesitabas una tarjeta con 8 GB de VRAM. Ya hemos hablado anteriormente de la memoria gráfica, hemos visto cómo funciona y también hemos explicado qué cantidad necesitamos realmente. Es cierto que cada juego es un mundo, y que ciertos títulos requieren más memoria gráfica que otros, pero esto no quiere decir que vayamos a necesitar, sí o sí, esa enorme cantidad de memoria gráfica.

A día de hoy, si vamos a jugar en 1080p, contar con 4 GB de memoria gráfica en una tarjeta gráfica de gama media (RX 570-GTX 970 o superior) es más que suficiente para disfrutar de una experiencia óptima. En resoluciones 1440p, con 6 GB de memoria gráfica tenemos más que suficiente en casi todos los casos, y en 2160p disponer de 8 GB de memoria gráfica ya nos permitirá jugar con todo al máximo.

Es cierto que, con el paso del tiempo, el consumo de memoria gráfica aumentará, y que dentro de unos años puede que esas cifras aumenten y que acabemos necesitando 6 GB para jugar en 1080p, 8 GB para jugar en 1440p y 10 GB o más para 2160p, pero hablamos de algo probable que no sabemos cuándo ocurrirá, y son valores que, en todo caso, se mantienen por debajo de esos 16 GB que hemos indicado en el título de este apartado.

Contar con un poco más de la memoria gráfica que necesitamos actualmente no es mala idea, ya que nos permite tener una reserva extra que dará una mayor vida útil a nuestra gráfica, pero no por ello debemos decir que solo vale la pena comprar tarjetas gráficas con 16 GB de memoria gráfica. Es un disparate sin sentido que no hace ningún bien al usuario.

No quiero terminar sin aclarar algo que ya he comentado en ocasiones anteriores, que algún lector me ha preguntado en más de una ocasión: ¿por qué hay juegos que consumen hasta 11 GB de memoria gráfica? La respuesta es simple, porque muchos títulos tienden a reconocer la cantidad de memoria gráfica disponible, y ajustan el consumo total en función de esa cantidad, llenándola al máximo como si de una especie de caché se tratase, pero en realidad no necesitan tanta memoria. Por ejemplo, Call of Duty Modern Warfare 2019 funciona de maravilla con 4 GB de memoria gráfica, pero puede consumir mucho más si tenemos más memoria gráfica disponible.

2.-El trazado de rayos son cuatro luces mal puestas

Cinco mentiras sobre las tarjetas gráficas

Decir que el trazado de rayos, o ray tracing, son cuatro luces mal puestas, que es algo que no vale la pena y que es una tecnología basura que está sobrevalorada se ha convertido en una tendencia entre algunos usuarios, pero no deja de ser una simple opinión que carece de fundamento alguno.

El trazado de rayos ha sido, desde siempre, el «Santo Grial» del sector gráfico, un auténtico objeto de deseo que ha estado fuera del alcance del mundo de los videojuegos porque es muy exigente para aplicarse en tiempo real. NVIDIA se atrevió a implementar un sistema de renderizado híbrido con la arquitectura Turing, que combina rasterización, aceleración de trazado de rayos e inteligencia artificial para hacer que ese «Santo Grial» se convierta en una realidad dentro del sector del videojuego, aunque sea de forma limitada.

Es cierto que, en sus primeras implementaciones, el trazado de rayos «pedía mucho y daba poco», pero en sus últimas integraciones esa realidad ha cambiado por completo. Cyberpunk 2077, por ejemplo, utiliza el trazado de rayos aplicado a reflejos, iluminación, sombras y oclusión ambiental, y la mejora que consigue es verdaderamente impresionante. Lo mismo podemos decir de su integración en Control, e incluso del trazado de rayos que utiliza Metro Exodus, que a pesar de estar limitado a la iluminación dinámica global marca una diferencia enorme en espacios interiores.

No, el trazado de rayos no son cuatro luces mal puestas, es un paso de gigante hacia el fotorrealismo que, a pesar de su complejidad, se está empezando a democratizar en el mercado de consumo general. En este sentido, las RTX 3050-3050 Ti de NVIDIA y las Radeon RX 6600 de AMD van a marcar un importante punto de inflexión, ya que serán las primeras tarjetas gráficas de gama media económica en contar con aceleración de trazado de rayos.

3.-Las tarjetas gráficas de AMD son mucho peores que las de NVIDIA

En sentido estricto, no es una mentira nueva, ya que esto se lleva diciendo desde hace muchos años, pero en este artículo el enfoque le damos hace que sí podamos considerarla como una mentira nueva. La llegada de la serie RX 6000 marcó un importante punto de inflexión, ya que hizo que volviésemos a tener competencia entre NVIDIA y AMD incluso en lo más alto del sector, puesto que la Radeon RX 6900 XT rinde más que la RTX 3080 en rasterización, y puede intercambiar golpes con la RTX 3090.

A pesar de todo, todavía se sigue diciendo que las tarjetas gráficas de AMD son peores que las de NVIDIA, que generan más calor, que soportan menos tecnologías y que consumen más. No solo es mentira, sino que además es curioso, ya que las Radeon RX 6000 han salido muy buenas en términos de eficiencia energética y de temperaturas de trabajo.

Por otro lado, las Radeon RX 6000 soportan todas las tecnologías presentes en DirectX 12, incluida la aceleración de trazado de rayos por hardware, así que decir de una manera tan gratuita que son peores que las soluciones gráficas de NVIDIA es mentir descaradamente. Con todo, sí que es cierto que no están al mismo nivel que aquellas en dos grandes frentes: rendimiento en trazado de rayos e inteligencia artificial.

Las RTX serie 30 ofrecen un rendimiento superior a las Radeon RX 6000 en trazado de rayos, gracias a la implementación de los núcleos RT que ha adoptado NVIDIA, basada en unidades dedicadas a cálculos complejos de intersecciones y colisiones. Esos núcleos RT trabajan de forma independiente, mientras que las unidades para trazado de rayos que utiliza AMD parten de una estructura de recursos compartidos con las unidades de texturizado, lo que limita mucho su rendimiento, ya que solo pueden trabajar en ciclo cuatro operaciones RT o cuatro ciclos de textura.

En cuanto a la inteligencia artificial, NVIDIA tiene una baza importante con el DLSS 2.0, una tecnología que puede llegar a triplicar el rendimiento, y que utiliza inteligencia artificial (se acelera a través de los núcleos tensor) para ofrecer una alta calidad de imagen. AMD no tiene nada comparable ahora mismo.

Podemos decir que NVIDIA lleva la delantera ahora mismo en el sector de las tarjetas gráficas por esas dos claves que  hemos indicado, pero decir que las tarjetas gráficas AMD son mucho peores es mentir, sin más, como hemos podido ver.

4.-El DLSS es un reescalado que apenas se usa y no vale la pena

Cinco mentiras sobre las tarjetas gráficas

Es curioso que una de las mejores tecnologías que han llegado al sector gráfico en los últimos años haya sido, precisamente, una de las que más críticas injustificadas ha recibido, y una de las más infravaloradas. Sobre el DLSS 2.0 se ha dicho de todo, que es un simple reescalado, que no aporta nada nuevo, que la soportan cuatro juegos y que reduce la calidad de imagen. Nada de eso es cierto, obviamente.

Cuando se produjo el lanzamiento del DLSS, es verdad que no cumplió con las expectativas que generó, pero la llegada del DLSS 2.0 marcó un antes y un después. Esta tecnología realiza una reconstrucción combinando las mejores imágenes seleccionadas mediante un proceso de inferencia apoyado por inteligencia artificial, y crea una imagen de alta calidad partiendo de un conteo de píxeles inferior a la resolución objetivo. A pesar de ese menor conteo de píxeles, el resultado final puede ser incluso superior al que obtendríamos con una imagen que mantenga la resolución nativa objetivo.

Uno de los mejores ejemplos del valor, y de la calidad que ofrece el DLSS 2.0, lo encontramos en Death Stranding. En este artículo ya analizamos en profundidad la excelente implementación de dicha tecnología que hizo el equipo de Kojima en dicho juego, y en otros títulos triple A importantes, como Cyberpunk 2077 o Watch Dogs Legion, también se ha integrado de forma sobresaliente.

El DLSS 2.0 mejora enormemente el rendimiento sin sacrificios en la calidad de imagen, se utiliza en decenas de juegos, y su tasa de adopción sigue creciendo, así que decir que es un simple reescalado y que no vale la pena es mentir descaradamente. Os recuerdo que solo las tarjetas gráficas RTX serie 20 y serie 30 son compatibles con esta tecnología.

5.-Las tarjetas gráficas RTX 20 dieron forma a una generación muy mala

Cinco mentiras sobre las tarjetas gráficas

Cuando se lanzaron las tarjetas gráficas RTX serie 20 se generó mucho revuelo. Siendo justos, debemos reconocer que fue un lanzamiento muy complicado para NVIDIA, ya que se trataba de las primeras tarjetas gráficas de consumo general con una especialización de núcleos en tres niveles:

  • Núcleos tensor para IA (DLSS y reducción de ruido).
  • Núcleos RT para trazado de rayos.
  • Motores de geometría, sombreado y texturizado.

Añadir los núcleos tensor y los núcleos RT no era algo «gratuito». NVIDIA tuvo que sacrificar parte del espacio del chip para integrar esos núcleos, y también tuvo que modificar profundamente la arquitectura de sus nuevas tarjetas gráficas para dar cabida a esos elementos. La mejora de rendimiento que lograron las tarjetas gráficas RTX serie 20 frente a las GTX 10 en rasterización no fue tan grande como se esperaba, y el consumo se disparó considerablemente, pero como vemos, tiene una explicación que, por desgracia no todo el mundo supo ver, esos cambios profundos a nivel de silicio derivados de los nuevos núcleos tensor y núcleos RT.

Todavía hay quien dice que las tarjetas gráficas RTX serie 20 dieron forma a una mala generación porque no mejoraron como se esperaba ni en rendimiento bruto ni en consumo y temperaturas, pero esto representa una opinión sesgada, injusta y alejada de la realidad. Para entenderlo mejor, solo tenemos que pararnos un momento a ver cómo ha envejecido, por ejemplo, la RTX 2060. Esta tarjeta gráfica acelera trazado de rayos con un nivel de rendimiento similar al que podemos encontrar en la serie RX 6000 de AMD, y soporta DLSS 2.0.

Pues bien, gracias al DLSS 2.0, la RTX 2060 es capaz de mover Death Stranding en 4K manteniendo 60 FPS estables. También puede con la demo de System Shock en 4K y calidad máxima sin problema, ya que gracias a dicha tecnología alcanza 78 FPS. Para que os hagáis una idea, esa cifra supera al rendimiento que obtiene una RTX 2080 Ti moviendo dicha demo en 4K nativo.

Las tarjetas gráficas RTX serie 20 fueron un movimiento arriesgado, ya que su valor giraba alrededor del trazado de rayos y del DLSS. Es cierto que se generaron unas expectativas muy altas, y que estas han tardado un tiempo en cumplirse, pero ya hemos visto de forma clara que NVIDIA ha sabido jugar sus cartas, y que acertó son su estrategia.

Editor de la publicación on-line líder en audiencia dentro de la información tecnológica para profesionales. Al día de todas las tecnologías que pueden marcar tendencia en la industria.

Lo más leído