Web Analytics
Conecta con nosotros

A Fondo

Cinco mentiras sobre las tarjetas gráficas: No caigas en estos engaños

Publicado el
Cinco mentiras sobre las tarjetas gráficas: No caigas en estos engaños 31

El mundo de las tarjetas gráficas ha experimentado un desarrollo enorme durante las últimas décadas, y ha vivido etapas verdaderamente revolucionarias en las que ha conseguido saltos tecnológicos que, en su momento, no nos habríamos atrevido ni siquiera a soñar. Recordad, por ejemplo, cuando llegó al mercado la primera solución de 3DFX, la Voodoo 1, que puso patas arriba el mundo de la aceleración 3D, o cuando aterrizó la GeForce 256, que contaba con soporte de «transformación e iluminación» («T&L»), y podía realizar cálculos de iluminación y geometría.

Por desgracia, con los avances que se han ido produciendo a lo largo de todos estos años también han ido apareciendo numerosas mentiras, y algunas medias verdades, que han hecho mucho daño a los usuarios con menos experiencia, y que han llegado a afectar al sector de las tarjetas gráficas creando mitos con un efecto de bola de nieve que, en algunos casos, todavía no se ha llegado a superar por completo.

Sobre ese tema ya tuvimos la oportunidad de hablar en su momento en este artículo, donde vimos cinco mitos sobre las tarjetas gráficas que todavía se mantienen como una especie de mantra, y que debemos superar de una vez por todas. Hoy quiero compartir con vosotros cinco mentiras de plena actualidad que están muy extendidas, que actúan como engaños muy peligrosos, y que pueden llevarnos directamente a hacer una mala compra.

Sé que el mercado gráfico está intratable, pero esta situación no va a durar para siempre. Espero que este artículo os ayude a estar preparados para acertar en la compra de vuestra próxima tarjeta gráfica cuando la tormenta se disipe y empecemos a ver, por fin, el Sol en el horizonte. Como he anticipado en el párrafo anterior, nos vamos a centrar en cinco mentiras actuales que están asociadas, por tanto, a las nuevas generaciones gráficas y las nuevas tecnologías que han ido surgiendo. Si tenéis cualquier duda, podéis dejarla en los comentarios.

1.-Necesitas 16 GB de memoria gráfica

Cinco mentiras sobre las tarjetas gráficas

Es una mentira tan grande como aquella que decía, en 2016, que necesitabas una tarjeta con 8 GB de VRAM. Ya hemos hablado anteriormente de la memoria gráfica, hemos visto cómo funciona y también hemos explicado qué cantidad necesitamos realmente. Es cierto que cada juego es un mundo, y que ciertos títulos requieren más memoria gráfica que otros, pero esto no quiere decir que vayamos a necesitar, sí o sí, esa enorme cantidad de memoria gráfica.

A día de hoy, si vamos a jugar en 1080p, contar con 4 GB de memoria gráfica es más que suficiente para disfrutar de una experiencia óptima. En resoluciones 1440p, con 6 GB de memoria gráfica tenemos más que suficiente en casi todos los casos, y en 2160p disponer de 8 GB de memoria gráfica ya nos permitirá jugar con todo al máximo.

Es cierto que, con el paso del tiempo, el consumo de memoria gráfica aumentará, y que dentro de unos años puede que esas cifras aumenten y que acabemos necesitando 6 GB para jugar en 1080p, 8 GB para jugar en 1440p y 10 GB o más para 2160p, pero hablamos de algo probable que no sabemos cuándo ocurrirá, y son valores que, en todo caso, se mantienen por debajo de esos 16 GB que hemos indicado en el título de este apartado.

Contar con un poco más de la memoria gráfica que necesitamos actualmente no es mala idea, ya que nos permite tener una reserva extra que dará una mayor vida útil a nuestra gráfica, pero no por ello debemos decir que solo vale la pena comprar tarjetas gráficas con 16 GB de memoria gráfica. Es un disparate sin sentido que no hace ningún bien al usuario.

No quiero terminar sin aclarar algo que ya he comentado en ocasiones anteriores, que algún lector me ha preguntado en más de una ocasión: ¿por qué hay juegos que consumen hasta 11 GB de memoria gráfica? La respuesta es simple, porque muchos títulos tienden a reconocer la cantidad de memoria gráfica disponible, y ajustan el consumo total en función de esa cantidad, llenándola al máximo como si de una especie de caché se tratase, pero en realidad no necesitan tanta memoria. Por ejemplo, Call of Duty Modern Warfare 2019 funciona de maravilla con 4 GB de memoria gráfica, pero puede consumir mucho más si tenemos más memoria gráfica disponible.

2.-El trazado de rayos son cuatro luces mal puestas

Cinco mentiras sobre las tarjetas gráficas

Decir que el trazado de rayos, o ray tracing, son cuatro luces mal puestas, que es algo que no vale la pena y que es una tecnología basura que está sobrevalorada se ha convertido en una tendencia entre algunos usuarios, pero no deja de ser una simple opinión que carece de fundamento alguno.

El trazado de rayos ha sido, desde siempre, el «Santo Grial» del sector gráfico, un auténtico objeto de deseo que ha estado fuera del alcance del mundo de los videojuegos porque es muy exigente para aplicarse en tiempo real. NVIDIA se atrevió a implementar un sistema de renderizado híbrido con la arquitectura Turing, que combina rasterización, aceleración de trazado de rayos e inteligencia artificial para hacer que ese «Santo Grial» se convierta en una realidad dentro del sector del videojuego, aunque sea de forma limitada.

Es cierto que, en sus primeras implementaciones, el trazado de rayos «pedía mucho y daba poco», pero en sus últimas integraciones esa realidad ha cambiado por completo. Cyberpunk 2077, por ejemplo, utiliza el trazado de rayos aplicado a reflejos, iluminación, sombras y oclusión ambiental, y la mejora que consigue es verdaderamente impresionante. Lo mismo podemos decir de su integración en Control, e incluso del trazado de rayos que utiliza Metro Exodus, que a pesar de estar limitado a la iluminación dinámica global marca una diferencia enorme en espacios interiores.

No, el trazado de rayos no son cuatro luces mal puestas, es un paso de gigante hacia el fotorrealismo que, a pesar de su complejidad, se está empezando a democratizar en el mercado de consumo general. En este sentido, las RTX 3050-3050 Ti de NVIDIA y las Radeon RX 6600 de AMD van a marcar un importante punto de inflexión, ya que serán las primeras tarjetas gráficas de gama media económica en contar con aceleración de trazado de rayos.

3.-Las tarjetas gráficas de AMD son mucho peores que las de NVIDIA

Cinco mentiras sobre las tarjetas gráficas: No caigas en estos engaños 35

En sentido estricto, no es una mentira nueva, ya que esto se lleva diciendo desde hace muchos años, pero en este artículo el enfoque le damos hace que sí podamos considerarla como una mentira nueva. La llegada de la serie RX 6000 marcó un importante punto de inflexión, ya que hizo que volviésemos a tener competencia entre NVIDIA y AMD incluso en lo más alto del sector, puesto que la Radeon RX 6900 XT rinde más que la RTX 3080 en rasterización, y puede intercambiar golpes con la RTX 3090.

A pesar de todo, todavía se sigue diciendo que las tarjetas gráficas de AMD son peores que las de NVIDIA, que generan más calor, que soportan menos tecnologías y que consumen más. No solo es mentira, sino que además es curioso, ya que las Radeon RX 6000 han salido muy buenas en términos de eficiencia energética y de temperaturas de trabajo.

Por otro lado, las Radeon RX 6000 soportan todas las tecnologías presentes en DirectX 12, incluida la aceleración de trazado de rayos por hardware, así que decir de una manera tan gratuita que son peores que las soluciones gráficas de NVIDIA es mentir descaradamente. Con todo, sí que es cierto que no están al mismo nivel que aquellas en dos grandes frentes: rendimiento en trazado de rayos e inteligencia artificial.

Las RTX serie 30 ofrecen un rendimiento superior a las Radeon RX 6000 en trazado de rayos, gracias a la implementación de los núcleos RT que ha adoptado NVIDIA, basada en unidades dedicadas a cálculos complejos de intersecciones y colisiones. Esos núcleos RT trabajan de forma independiente, mientras que las unidades para trazado de rayos que utiliza AMD parten de una estructura de recursos compartidos con las unidades de texturizado, lo que limita mucho su rendimiento, ya que solo pueden trabajar en ciclo cuatro operaciones RT o cuatro ciclos de textura.

En cuanto a la inteligencia artificial, NVIDIA tiene una baza importante con el DLSS 2.0, una tecnología que puede llegar a triplicar el rendimiento, y que utiliza inteligencia artificial (se acelera a través de los núcleos tensor) para ofrecer una alta calidad de imagen. AMD no tiene nada comparable ahora mismo.

Podemos decir que NVIDIA lleva la delantera ahora mismo en el sector de las tarjetas gráficas por esas dos claves que  hemos indicado, pero decir que las tarjetas gráficas AMD son mucho peores es mentir, sin más, como hemos podido ver.

4.-El DLSS es un reescalado que apenas se usa y no vale la pena

Cinco mentiras sobre las tarjetas gráficas

Es curioso que una de las mejores tecnologías que han llegado al sector gráfico en los últimos años haya sido, precisamente, una de las que más críticas injustificadas ha recibido, y una de las más infravaloradas. Sobre el DLSS 2.0 se ha dicho de todo, que es un simple reescalado, que no aporta nada nuevo, que la soportan cuatro juegos y que reduce la calidad de imagen. Nada de eso es cierto, obviamente.

Cuando se produjo el lanzamiento del DLSS, es verdad que no cumplió con las expectativas que generó, pero la llegada del DLSS 2.0 marcó un antes y un después. Esta tecnología realiza una reconstrucción combinando las mejores imágenes seleccionadas mediante un proceso de inferencia apoyado por inteligencia artificial, y crea una imagen de alta calidad partiendo de un conteo de píxeles inferior a la resolución objetivo. A pesar de ese menor conteo de píxeles, el resultado final puede ser incluso superior al que obtendríamos con una imagen que mantenga la resolución nativa objetivo.

Uno de los mejores ejemplos del valor, y de la calidad que ofrece el DLSS 2.0, lo encontramos en Death Stranding. En este artículo ya analizamos en profundidad la excelente implementación de dicha tecnología que hizo el equipo de Kojima en dicho juego, y en otros títulos triple A importantes, como Cyberpunk 2077 o Watch Dogs Legion, también se ha integrado de forma sobresaliente.

El DLSS 2.0 mejora enormemente el rendimiento sin sacrificios en la calidad de imagen, se utiliza en decenas de juegos, y su tasa de adopción sigue creciendo, así que decir que es un simple reescalado y que no vale la pena es mentir descaradamente. Os recuerdo que solo las tarjetas gráficas RTX serie 20 y serie 30 son compatibles con esta tecnología.

5.-Las tarjetas gráficas RTX 20 dieron forma a una generación muy mala

Cinco mentiras sobre las tarjetas gráficas

Cuando se lanzaron las tarjetas gráficas RTX serie 20 se generó mucho revuelo. Siendo justos, debemos reconocer que fue un lanzamiento muy complicado para NVIDIA, ya que se trataba de las primeras tarjetas gráficas de consumo general con una especialización de núcleos en tres niveles:

  • Núcleos tensor para IA (DLSS y reducción de ruido).
  • Núcleos RT para trazado de rayos.
  • Motores de geometría, sombreado y texturizado.

Añadir los núcleos tensor y los núcleos RT no era algo «gratuito». NVIDIA tuvo que sacrificar parte del espacio del chip para integrar esos núcleos, y también tuvo que modificar profundamente la arquitectura de sus nuevas tarjetas gráficas para dar cabida a esos elementos. La mejora de rendimiento que lograron las tarjetas gráficas RTX serie 20 frente a las GTX 10 en rasterización no fue tan grande como se esperaba, y el consumo se disparó considerablemente, pero como vemos, tiene una explicación que, por desgracia no todo el mundo supo ver, esos cambios profundos a nivel de silicio derivados de los nuevos núcleos tensor y núcleos RT.

Todavía hay quien dice que las tarjetas gráficas RTX serie 20 dieron forma a una mala generación porque no mejoraron como se esperaba ni en rendimiento bruto ni en consumo y temperaturas, pero esto representa una opinión sesgada, injusta y alejada de la realidad. Para entenderlo mejor, solo tenemos que pararnos un momento a ver cómo ha envejecido, por ejemplo, la RTX 2060. Esta tarjeta gráfica acelera trazado de rayos con un nivel de rendimiento similar al que podemos encontrar en la serie RX 6000 de AMD, y soporta DLSS 2.0.

Pues bien, gracias al DLSS 2.0, la RTX 2060 es capaz de mover Death Stranding en 4K manteniendo 60 FPS estables. También puede con la demo de System Shock en 4K y calidad máxima sin problema, ya que gracias a dicha tecnología alcanza 78 FPS. Para que os hagáis una idea, esa cifra supera al rendimiento que obtiene una RTX 2080 Ti moviendo dicha demo en 4K nativo.

Las tarjetas gráficas RTX serie 20 fueron un movimiento arriesgado, ya que su valor giraba alrededor del trazado de rayos y del DLSS. Es cierto que se generaron unas expectativas muy altas, y que estas han tardado un tiempo en cumplirse, pero ya hemos visto de forma clara que NVIDIA ha sabido jugar sus cartas, y que acertó son su estrategia.

Editor de la publicación on-line líder en audiencia dentro de la información tecnológica para profesionales. Al día de todas las tecnologías que pueden marcar tendencia en la industria.

14 comentarios
  • Gregorio Ros

    No se puede decir mas claro, pero aún así está la fuerza de las leyendas urbanas, de tanto repetirlas, se toman como verdad. En el primer punto añadiría un factor importante, como los títulos suelen programarse para que funcionen bien en consolas da igual el monstruo que metas, ni la memoria, se limitan al tope de las consolas y pocos títulos hacen la gracia de sacar partido de la potencia del PC. El segundo punto lo encuentro mas cuestionable, la calidad de la imagen tiene que ser de alucine, pero no es imprescindible, yo valoraría mas importante la jugabilidad que la iluminación, pero son gustos personales y de poder permitirmelo por supuesto que incorporaría el rx. De acuerdo con el tercer punto, aunque, como pasa con el primer punto, Nvidia se adelanta tecnológicamente y eso a la hora de comparar marca la diferencia. En el resto de puntos totalmente de acuerdo.

  • Rafael

    El tema de la generación 2000 nVidia, está claro : no había competencia. Si ofreces un producto que trae una tecnología que es el santo grial en calidad gráfica, y lo ofreces a un precio parecido al modelo precedente, es algo que merece la pena (a no ser que tengas un producto de la generación 1000).

    Las críticas sobre todo vienen por parte de los defensores de AMD. Y no esperaban cambiar de gráfica probablemente.

    El objetivo de la serie 2000 fue introducir nueva tecnología, antes que introducir incrementos de rendimiento bruto impactantes.

    Pilló a AMD con el pie cambiado y no ha sido hasta la serie 6000 que puede competir. Competir en rasterización. Básicamente le han metido una memoria caché para incrementar su rendimiento en rasterización. No implementa hardware raytracing basado en IA de la misma forma que nVidia. AMD ya lo avisó. Querían evitar a toda costa meter hard dedicado. Y eso se tradujo en rendimiento pobre en raytracing.

    Supongo que es respetable el que uno valore los fps antes que la calidad de imagen. Pero hay un mercado de personas que quieren ver algo diferente y de más calidad de imagen (o más realista). Creo que ese mercado también tiene su razón. Si se desprecia el raytracing, creo que hay un sentimiento anti-nvidia detrás. Y yo soy anti-nvidia pero sobre todo pro-raytracing.

  • Hermen

    Lo del Raytracing está muy bien pero por culpa de esta tecnología todavía en pañales, Nvidia se sacó de la manga el DLSS, el cual a conseguido minimizar el gran impacto en cuanto a recursos se refiere que supone el raytracing mejorando los FPS mediante un reescalado inteligente.
    Muy bien pensado. Pero no deja de ser un reescalado.
    De hecho la resolución nativa es compleja y se tarda mucho tiempo en fabricar un juego en 4K.
    Lo que hacen las desarrolladoras es sacarlo en fullHD o 2k con raytracing escalado a 4k y te dicen que bien se ve con el DLSS claro.
    Yo creo que lo veo mas un parche y un alivio para los creadores de videojuegos mas que una revolución.
    Eso si AMD o los usuario de AMD no tienen porque quejarse pero es verdad que Nvidia a generado un debate interminable, para algunos sobre todo los fans de ciertas marcas estan muy convencidos pero el resto de los mortales no nos convence los pocos juegos que aprovechen realmente bien el Raytracing…
    Si, son 4luces es una forma de hablar, sabemos que es un algoritmo muy complejo de rebotes de luz por todo el escenario.
    Pero sigue siendo un lastre y es el procesador el que mejor ejecutaría dichas tareas.
    AMD por lo que veo no ha sacado nada atrasado o en desventaja, simplemente no hay porque. Si no hay material para aprovecharlo y han sacado la “compatibilidad” con el raytracing.
    Sigue siendo algo temprana.
    Cuando AMD SAQUE LA IMPLEMETACION POR RAYTRACING A TRAVES DE LA CPU NO necesitará DLSS ya que serán nativos. Y al contrario que Nvidia, AMD si fabrica CPUs.
    Solo es cuestión de tiempo cuando exista una mayor oferta de juegos y en 4k nativos hablamos gente.

    Un saludete Retequeros

  • Hello

    Nvidia va por delante en reecalado inteligente.
    Porque en Raytracing se han adueñado de esa palabra injustamente para luego sacar pecho de juegos de la pasada generacion fabricador POR Y PARA NVIDIA y ni si quieran pueden con los 4K nativos que demanda la sociedad. Son reecalados desde fullHD o QHD.
    En que mundo vives fanboy….
    Dejar vosotros de engañar y sacar artículo tras artículo de falsas promesas y graficas por 1000€ que no valen ni para 2 años,,,,,

  • Leonmafioso

    Pues el raytracing, al igual que el rango dinamico elevado son dos cosas innecesarias totalmente y que afectan de manera negativa el rendimiento y la experiencia de juego.

  • Gregorio Ros

    Por Dios, ¿Un mal día? No se de donde sacas que sea un fanboy de Nvidia, me importan un carajo Nvidia, AMD, Intel,… tengo claro que si dejas solo a cualquiera de ellos te sacan el hígado, llegado el momento de una ampliación me decanto por el que mas me guste en ese momento.
    Por ahora Nvidia lleva la delantera en tecnología y eso marca ritmo y titulares, que no es poco, para negarlo si que hay que mostrar inadversión. El trazado no es de Nvidia, no se adueña de nada, pero que si hoy quieres trazado de calidad tienes que morir con Nvidia es una cruda realidad. Luego, nada de injusto, que el trazado estaba ahí y el resto de fabricantes no le hacían puto caso, incluso en el artículo Isidro señala las críticas de cuando lo introdujeron a la serie 20 de Nvidia, se lo ha ganado a pulso. Para finalizar el último párrafo, no se si lo dices por el apellido, ya otra vez nos lo dijeron, donde vivo es muy común y que conozca hay otros cinco que compartimos nombre y apellidos y vivimos en un puño sin parentesco. Yo no soy de la casa, unas veces estoy de acuerdo con los artículos, como ahora, otras no, lo que si llevo un tiempo notando son comentarios muy polarizados, gente que va con tal o cual compañía sí o sí, pero esa lealtad no da la razón, un producto es bueno o malo independientemente.

  • stban_ox

    En el punto en dónde señalas que las gráficas AMD estaban por detrás es poco cierto, dado que las Radeon no competían en gama alta y en las gamas medias y bajas eran las mejores en cuanto a rendimiento/precio, además el Raytracing aún está en sus inicios, la cantidad de juegos que aprovechan está tecnología son pocos aún, va ir en aumento, es lo mismo que al hacer la comparativa con las consolas usaste como parámetro un título como control, que abiertamente fue desarrollado en conjunto con nvidia.
    Por lo de la memoria gráfica hay títulos que lisa y llanamente los 4gb no alcanzan para jugarlo con las texturas en alta calidad y no son pocos.

  • FX

    1.- Necesitas 16 GB de memoria gráfica, también es un tema de marketing, AMD a hecho mucho por meter más y más RAM, Nvidia por el contrario mete solo lo justo y en ocasiones queda a deber, en realidad depende del juego, la resolución y la calidad a la que juguemos, pero como dice el viejo adagio computacional la memoria RAM nunca está de más, con sus limitantes claro está.

    2.-El trazado de rayos son cuatro luces mal puestas, el ray tracing es una técnica muy vieja y muy demandante, pero no existía la forma de implementarlo en tiempo real hasta que Nvidia hizo algo por ello, muchos aman AMD, y no le dan el valor justo a Nvidia (sobre todo aquí por el inmenso amor a Linux), si se hace un balance general Nvidia a hecho mucho mas por los gráficos en PC, pero eso sí, no esperes que te libere código ni documentación, lo cual no esta mal en mi opinión.

    3.-Las tarjetas gráficas de AMD son mucho peores que las de NVIDIA, hagan el balance de todas las Geforce (antes Riva TNT) de Nvidia contra las Radeon (antes Fury, Magnum entre otras) de ATI y AMD, son contadas la veces con los dedos una mano cuando Nvidia a perdido, y aun así me sobran dedos, no es por demeritar AMD, pero el líder es y siempre ha sido Nvidia salvo cuando domino 3dfx, eso no quiere decir que usted no puede comprar una Radeon y disfrutar, pero eso no hace AMD líder.

    4.-El DLSS es un reescalado que apenas se usa y no vale la pena, otra técnica menospreciada, AMD lo ha hecho fantástico con Ryzen, AMD ha liberado código y documentación, AMD en ocasiones especificas vende más barato, pero repito tomen todas las veces que AMD ha introducido algo nuevo y son muy pocas veces en toda su historia como empresa.

    5.-Las tarjetas gráficas RTX 20 dieron forma a una generación muy mala, (lo comente aquí sin cuenta de disqus) la serie 20 fue y es un parteaguas para la industria, tanto así que AMD casi 3 años después apenas y puede hacer competencia con lo nuevo que presento Nvidia con esa serie, lo mas relevante es que Nvidia presento un tipo de unidad de procesamiento diferente y específica, algo que no ocurría desde hacia mucho tiempo.

  • FX

    El ray tracing es una técnica muy vieja que toda la vida se implementó por CPU, NO INVENTEN HISTORIAS, pero nunca se aplicaba en tiempo real porque la CPU no es buena para gráficos.

    Caramba ni siquiera saben porque demonios se inventaron las tarjetas de video con aceleración 3D hace mas de 2 décadas, no se han preguntado porque antes no se usaban aceleradoras 3D y TODO se calculaba en la CPU y con el paso del tiempo las ahora llamadas GPUs hacen cada vez más, bueno creo que pido mucho.

  • Benito Camelas

    yo tengo 2GB de gráfica, todavía «sobrevivo» así flipo cuando veo que hay quien pide 16GB, con eso yo tendría gráfica para 15 años xD lo más importante es tener unos buenos drivers y con soporte, en ese aspecto nvidia casi me hace la vida imposible, por lo que sabiendo que sus gráficas son un poco% mejores por que tienen un tanto por ciento de rendimiento extra en RT con respecto a AMD, me da igual, prefiero una AMD que no me de problemas en linux.

    Yo añado otra cosa que igual puede ser mentira, pero sigo sospechando… y es que el uso de inteligencia artificial en las gráficas requiere de conexión a internet (vamos que lo procesarán en un servidor externo a nuestro equipo), a mí es a lo que siempre me suena que algo lleve inteligencia artificial, pero ya digo hablo desde la ignorancia, tampoco creo que le sea viable a nvidia tener una granja de servidores para procesar la IA de millones de jugadores y mucho menos que esto sea a tiempo real, ya que a la latencia propia de un shoter por ejemplo, se le añadiría la del procesado de IA en servidor externo y vuelta.

  • Guiako

    Respecto al punto 3º no creo que esté tan extendida la mentira de que las tarjetas AMD son mucho peores que las Nvidia, va por generaciones, hubo generaciones en que las AMD eran peores en eficiencia energetica, por ejemplo las GCN desde la serie 200 en adelante eran bastante peores que las Nvidia desde Maxwell y posteriores, pero en otras épocas contando desde ATI esto no era así y a veces ATI/AMD eran mejores. Las actuales RDNA2 no tienen que envidiar a las RTX3000 en rendimiento en rasterización y eficiencia energetica, solo están por debajo en ray tracing (que sigue sin ser esencial) y en la falta de una alternativa a dlss, pero esto último lo van a solucionar en pocos meses con Fidelityfx.

    En cuanto a los puntos 2º y 4º, es verdad que el ray tracing es el futuro, pero en lo que se ve ahora mismo casi, casi son cuatro luces mal puestas y en cuatro juegos contados, la mejora de calidad gráfica que ofrece no se justifica con el enorme coste energético, de rendimiento y de precio, creo que es una tecnología que ha llegado antes de tiempo y todavía queda tiempo para que verdaderamente se justifique y sea accesible en todas las gamas. En cuanto al dlss2, es increíble lo mucho que puede mejorar el rendimiento en algunos juegos, pero no siempre es lo suficientemente fiel a la imagen nativa, DLSS no deja de ser un parche a la impotencia del hardware actual para ray tracing y para el 4k, porque todavía no hay hardware lo suficientemente preparado para 4k nativo, por falta de potencia y falta de memorias que ofrezcan anchos de banda superiores a 1TB/s a precios razonables.

  • Rafael

    No estoy de acuerdo (por lo menos, no estoy seguro) en que se necesiten CPUs para raytracing. Las GPUs sirven para ejecutar unos algoritmos de manera rápida y escalables. Aumentan los cores en las CPUs, pero ni el ancho de banda necesario ni el número de unidades de cálculo, se acercan a las de las GPUs. Y las APUs de AMD no tienen ancho de banda. Y si en el futuro le pusieran HBM, entonces le pasaría como a la PS5 o Xbox, que necesitan sistemas de ventilación muy sofisticados, porque disipan demasiado calor.

    En fin, gracias por tu respuesta, pero no estoy de acuerdo. Las implementaciones de Raytracing cambiarán en el futuro, pero lo que hay actualmente sirve para añadir un plus de calidad.

  • kinetix

    no se hara raytracing en el CPU para juegos, pues de inicio es muy costoso, no puede, ni aun uno con AVX-512 y unos cuantos nucleos.

    el raytracing es altamente paralelo y se mapea muy bien el CALCULO a los GPU,
    PERO la parte de accesos a memoria no lo es para los GPUs, pues es muy disperso, cosa normal para los CPUs pero letal para los GPUs.

    el recorrido de los BVH, que es una estructura de datos de aceleracion, tambien el cuesta a los GPUs (los CPUs lo hacen mejor) a menos que se tengan unidades mixtas o especificas para ello, como lo «RT Cores» o las TMU modificads de AMD

    Y si, se requerira, ya sea para escalado (por el coste) o para AA (porla calidad) una solucion estilo DLSS, aun se tviera potencia suficiente, este tipo de tecnica se mantendra

  • kinetix

    en introducir tecnologias para graficos en PC, ATI/AMD y NVIDIA.. veamos, tomemos post-3dfx, quien introdujo que tecnologia primero, pero tecnoligias realmente utilizadas

    ——–ATI——–

    •buffer Z eficiente, con compresion y jerarquias, para mas rendimiento

    primer GPU DirectX 9 de escritorio, con shaders completamente programables. nvidia habia implementado esto parcialmente, pero a bajo nivel, luego dicen que fueron los primeros, cuando relamente en el Nitendo 64 esto ya se hacia

    Teselacion en hardware (con TruForm). Silicon Graphics ya lo hacia antes, mas o menos

    Shaders unificados en el GPU del XBox 360, lo que seria el primer GPU DirectX 10. muchos creen que fue NVIDIA en las GeForce 8000, pero fue ATi un año antes. tenia sus ingenieros dedicados a eso, por lo que demoraron otro año en llevarlo a la PC

    ——–AMD (ATI se convierte en el Radeon Technology Group)——–

    Primer GPU DirectX 11

    •Mejor representacion multimonitor con Eyefinity

    Shaders asincronicos, para operaciones computo y grafico simultaneas de manera eficiente

    Mantle, API mas eficiente y de bajo nivel, que derivo a Vulkan (multisistema y multplataforma), de la que DirectX 12 tambien tomo cosas

    FreeSync basado en un estandar VESA (salio el mismo año que G-Sync)

    ——-NVIDIA——-

    Transform & Ligthining en hardware. NVIDIA dice que ellos crearon con esto el primer «GPU», esto Silicon Graphics los hacia desde años antes e incluso Sony denominaba GPU al chips grafico del Playstation

    •algo en hadrware para sombras mas efiecientes, que no recuerdo el nombre

    SLI. una evolucion del SLI de 3dfx. actualmente en desuso

    aqui hay un buen tiempo intermedio que no recuerdo nada relevante en que NVIDIA fuera el primero, si alguien ayuda….

    G-Sync, propietario de nvidia (salio el mismo año que FreeSync)

    •hardware dedicado para acelerar el recorrido del BVH e intersecciones para raytracing (Raytracing en hardware y los RT Cores). Imagination Technologies ya lo tenia en algunos de sus GPU moviles!! unos años antes

    •modelos de IA (analitico + DNN) para escalado y antialiasing, apoyado por hardware dedicado (DLSS y los Tensor Cores)

    -otras tecnicas, pero mas cosas de software y opcinales

    -Parallax occlusion mapping (ATI)

    -antialiasing aproximado, FXAA (NVIDIA)

    -antialiasing temporal TXAA (NVIDIA)

    -VXGI, pero creo que un nadie lo utilizo ni utiliza (NVIDIA)

    y otras cosas mas particulares, pero poco visibles de cara a los usuarios «comunes»

Lo más leído