Web Analytics
Conecta con nosotros

Noticias

AMD FidelityFX Super Resolution será el rival de NVIDIA DLSS 2.0

Publicado el
AMD FidelityFX Super Resolution

Cuando se produjo el lanzamiento de las Radeon RX 6000 vimos los primeros detalles de AMD FidelityFX Super Resolution, una tecnología que se perfila como la respuesta del gigante de Sunnyvale al DLSS 2.0 de NVIDIA, y que se encontraba todavía en desarrollo. Esto quiere decir que no teníamos mucha información, una situación que, por fin, ha cambiado.

La tecnología AMD FidelityFX Super Resolution se encuentra, según una nueva filtración, muy cerca de su lanzamiento, y no tendremos que esperar mucho, ya que todo parece indicar que podría estar disponible a partir del próximo mes de marzo. Si esto se confirma, todos aquellos que compraron una RX 6800, RX 6800 XT y RX 6900 XT se llevarán una enorme alegría y servirá, además, como aliciente para impulsar las ventas de los modelos que todavía están por llegar, como las RX 6700-6700 XT, las RX 6600-6600 XT y las Radeon RX 6500.

El lanzamiento de esta nueva tecnología se llevará a cabo mediante una actualización de drivers, que estará dividida en dos tecnologías clave: AMD FidelityFX Super Resolution y AMD Radeon Boost. ¿No tienes claro qué diferencias existen entre ambas? Pues tranquilo, no te vamos a dejar con la duda.

La tecnología FidelityFX Super Resolution se apoya en algoritmos (inteligencia artificial) basados en Microsoft DirectML, y acelerados vía hardware. Dichos algoritmos trabajan de forma similar a lo que hemos visto en la tecnología DLSS 2.0 de NVIDIA, lo que significa pueden crear una imagen de alta calidad con un elevado conteo de píxeles combinando, de forma inteligente, una serie de imágenes con una resolución base inferior. No sería un simple reescalado, sino una técnica de reconstrucción inteligente de la imagen.

Por contra, la tecnología AMD Radeon Boost no utiliza ningún tipo de algoritmo, sino que ajusta de forma dinámica la resolución de pantalla, reduciéndola en aquellas escenas en las que la acción transcurre muy rápido, para así mantener una alta tasa de fotogramas por segundo. Esto tiene dos grandes desventajas, y es que, por un lado, puede provocar una pérdida notable de la calidad de imagen, y, por otro lado, puede generar inconsistencias muy marcadas a nivel de rendimiento.

AMD FidelityFX Super Resolution

AMD FidelityFX Super Resolution: ¿funcionará en la arquitectura RDNA?

Es la pregunta que todos nos hacemos, y la verdad es que no está nada claro. La opinión mayoritaria que existe ahora mismo apunta a que AMD FidelityFX Super Resolution solo será compatible con las tarjetas gráficas basadas en la arquitectura RDNA 2, y que no funcionará en los modelos basados en la arquitectura RDNA.

Esto tiene una explicación, y es que la mayoría de las tarjetas gráficas Radeon RX serie 5000, incluidos los modelos más potentes, no están preparadas para trabajar  de forma óptima con operaciones basadas en INT4, INT8 y BFLOAT16, fundamentales para realizar cargas de trabajo asociadas a la inteligencia artificial. Esto quiere decir que solo la arquitectura RDNA 2 tiene soporte pleno de DirectML, y que por eso podría ser la única compatible con AMD FidelityFX Super Resolution.

Por otro lado, también hay rumores que apuntan que la compañía que dirige Lisa Su ha decidido implementar la tecnología AMD FidelityFX Super Resolution partiendo de un conjunto de APIs propias, es decir, que no contará con DirectML de Microsoft. Si esto se confirma, su enfoque sería idéntico a la tecnología DLSS 2.0 de NVIDIA, que es propietaria, y tendría una ventaja importante: podría llegar «sin problema» a las Radeon RX 5000, basadas en RDNA.

Todavía quedan muchas cosas en el aire, pero lo importante es que cada vez queda menos para que AMD presente al rival de la tecnología DLSS 2.0. Como siempre digo, la competencia es buena, y el hecho de que AMD FidelityFX Super Resolution siga en desarrollo es un buen síntoma, ya que confirma que AMD está trabajando para recuperar terreno frente a NVIDIA.

Editor de la publicación on-line líder en audiencia dentro de la información tecnológica para profesionales. Al día de todas las tecnologías que pueden marcar tendencia en la industria.

9 comentarios
  • Benito Camelas

    Que bueno! me da a mí que la gran orgía que se va a montar cuando se termine esto del bichillo va a estar compuesta por un sobrestock de tarjetas entre otras cosas xD

    Pero bueno, supongo que todavía irá AMD un escalón detrás de NVIDIA por la mejor implementación del raytracing que tiene esta?

    Aún así sigo soñando con hacerme con una gráfica AMD de última generación y olvidarme de los malos drivers de nvidia…

  • kinetix

    permitanme ayudar aclarando algunos puntos

    -DirectML es un API de Microsoft, parte de DirectX, para ejecucion de algorimos de IA, por ejemplo Redes Neuronales. Abstrae al desarrollador las especificidades del hardwrae, tal como hace dirctx (aunque dx12 lo hace menos, tal como vulkan). La aceleracion de las funciones sobre GPU esta en principio basada en shaders HLSL, lenguaje de alto nivel de DirectX para programacion de shaders. Pero a nivel de driver puede traducirse en otra cosa y las unidades especializadas (es decir, estilo los «Tensor Cores» de Nvidia o los «Matrix Cores» de AMD) se encargarian de acelerar operaciones (por ejemplo las convoluciones de las redes neuronales convolucionales)

    -DirectML es tambien parte de WinML, que abarca mas nivel y alcance de ejecucion , con fallback a CPU, pero aqui nos importa el caso GPU

    -DirectML incorporaría (o creo q ya lo hace, hace unos dias Microsoft publico la especificacion oficial y con el SDK, debo revisarlo) en su version mas moderna capacidad para usar hardware especializado de manera transparente (se encargarian los drivers)

    -Lo que ejecute con DirectML en GPU puede hacerse en los shaders puros, pero esto resta capacidad de computo dedicada a los graficos, al dibujo. es un asunto de balance de perdida-ganancia, que tiene que ser positivo en todods los aspectos (calidad de imagen, velocidad de fotogramas y latencia). en tiempo: coste de dibujar menos + coste de inferencia < coste de dibujar todo. en latecnia debe ser entre igual y muy ligeramente superior. en cladida de imagen se espera al menos similar, auqnue en partes o situaciones donde la vista no lo note puede ser inferior

    -Shaders con capacidad nativa de calculo FP16, INT8/INT4 y bF16 y mezclados, se defienden mejor en esta tarea, pues es pueden ejecurtar entre 2 y 16 veces mas rapido que FP32 (la realidad maxima es un intermedio). en el caso AMD, solo CDNA y RDNA2 soportan computo en todos estos tipos de datos.

    -AMD y Microsoft deben/tienen q haber optimizado mucho para que vaya tan bien como se pueda, en complejidad de los modelos, tipos de datos y adaptacion al hardware

    -para acelerar la ejecucion, AMD en su hardware debe incorporar unidades especializadas. Esos Matrix Cores existen en las GPUs de computo CDNA (aun por salir al mercado general, deben estar por ahora metiendo todas las que fabriquen en dos o tres supercomputadoras a salir este año) y que deben incorporarse en RDNA 3

    -PERO, el SoC de las XBOX SX si tiene hardware dedicado que acelera, segun Microsoft, entre 3 y 10 veces, la ejecucion de estos algoritmos, supongo que comparado a si se ejecutaran en los shaders. Este es el hardware que usaran para ejecutar la red de interpolacion de imagen (mas bien, prediccion de pixeles). hardware que por ahora estaba sin ser usado.

    -Este hardware puede ser los Matrix Cores de CDNA, o un derivado, o unidades de diseño propio de MS+AMD, aunque esto ultimo seria menos problable, mejor usar lo ya creado para las GPUs AMD

    -AMD incorporara esta capacidad en su biblioteca FidelityFX, asi cualquiera pueda usarlo, pero con seguridad en PC no lo veremos en uso hasta RDNA3, donde se deben incluir los "Matrix Cores" en la arquitectura (se supone, y si AMD no lo hace le seria un problema), pues hacerlo en los shaders el coste en computo seria mucho mayor . A menos que se emplee en juegos con carga grafica baja o algo asi, aunque en este caso, ya irian rapido en primer lugar.

    -mirando rapido los datos de la CDNA MI100, sus unidades Matrix de primera generacion entregan un maximo de 46/184 TFLOPS (FP32/FP16) en operaciones matriciales (matrices no dispersas, es decir que tiene elementos cero y estos se manipulan aun no aporten al resultado). La RTX2080ti entrega 107 TFLOPS (todos los flops son picos teoricos) en FP16 en los "tensor cores". esto lleva a pensar que si AMD mete en una futura GPU Radeon, quizas las mas potente, la misma cantidad de estas unidades de primera generacion (como sus unidades de RT), al menos supera en papel a la RTX2080ti, pero queda por debajo de la 3060ti con 64TFLOPS FP32 en matrices dispersas). PERO, si las unidades que incluya en RDNA 3 fuera ya mas avanzadas y pueden hacer las operaciones de manera optimizada sobre matrices dispersas (menos elementos a calcualr), estos numeros serian mayores. es cosa a ver para fines de año seguro, y de ir conociendo mas detalle cuando las CDNA salgan a mercado general.

    -Sony no puede hacer esto, pues no tiene hardware dedicado a acelerar inferencias (a menos que lo tengan oculto, cosa que dudo) y su SoC es menos potente.

    -Finalmente, estos modelos no son solo para "escalado", si no tambien para ejecutara modelos para la reduccion de ruiod, mas bien el rellenar informacion faltante cuando se hacer RT con menos rayos por pixel, para que sea menos costoso. Esto es uno de los aspectos, a parte del escalado, que en mi opinion hace que en el hard AMD cueste mas por ahora el RT, . En mi opinion, se estan empleando mas rayos, pues no se cuenta con un reductor de ruido-interpolador de muestras, que permitiera usar menos rayos y rellenar la informacion ganando asi rendimiento. AMD dijo que se incluira en FidelityFX este reductor de ruido (es un modelo emparentado con el del escalador). Si por algun milagro salen con un modlos unico que pueda hacer las dos cosas, seria mucho mejor

  • Jose Pons Toran

    No se tanto de cuestiones técnicas pero aclaras muy bien ciertas cosas.
    En resumen es que AMD necesita usar hardware dedicado para ejecutar más rápido los algoritmos del Super Resolution. Es cierto que SX lleva ese hardware y ya se dijo que acordó cosas con Nvidia para poder implementarlo.
    PS5 como dices no parece que tenga nada de eso y su reescalado por IA será muy inferior. Ahí que la diferencia entre ambas consolas se ensanchará aún más.

    Es importante que AMD saque cuanto antes información y hasta donde llegarán las 6000 con todo esto, pues son muy buenas gráficas y es lo único que le hace falta para igualar a Nvidia.

  • Javi

    Pero esto no lo tiene ya Death Stranding y Cyberpunk? me suena ver algo de AMD FidelityFX en las opciones graficas

  • Javi

    malos driver nvidia? pero si es al contrario, AMD está varios pasos por detrás de Nvidia en driver y soporte y eso todo el mundo lo sabe

  • Benito Camelas

    Pues no sé a qué mundo le has preguntado, en linux los drivers de nvidia dejan mucho que desear. Mientras que AMD en los últimos años los ha mejorado muchísimo.

  • Javi

    En Linux no tengo ni idea, yo digo en Windows, de toda vida se sabe que AMD es un desastre dando muchos problemas y Nvidia compras una GPU pones los drivers y te olvidas de problemas. Yo tengo desde 2015 una 970 y siempre perfecto y ahora tengo 3060ti igual, hasta se instalan automaticamente si lo programas con geforce experience

  • kinetix

    en lo personal, jamas he tenido problema alguno con un driver de amd, ni antes cuando ati. aunuque tampoco con los de nvidia

    pero los de amd proveen muchas mas funcionalidades que los de nvidia

  • Jove Chiere

    Cyberpunk usa FFX pero es como cuando escalamos la pantalla y el GUI o HUD no sé altera.
    Lo que aquí se plantea es con el algoritmo de IA, y eso será la FFXSR.

Lo más leído