Web Analytics
Conecta con nosotros

A Fondo

Tarjetas gráficas AMD Radeon: ¿Deberían ser más baratas que las GeForce RTX?

Publicado el
tarjetas gráficas AMD Radeon RX

Las tarjetas gráficas AMD Radeon han vivido momentos dispares a lo largo de los últimos años. Cuando la serie Radeon estuvo bajo la batuta de ATi vivimos el lanzamiento de generaciones tan interesantes como la Radeon 8500, la serie Radeon X1000 y las Radeon HD serie 4000, pero también llegaron decepciones importantes, como la serie Radeon X800, que no era compatible con DirectX 9.0c, y las Radeon HD 2000, que no podían competir con las GeForce serie 8000 de NVIDIA.

ATi era toda una veterana del sector gráfico, de hecho empezó a comercializar sus primeros productos en los años ochenta, cuando los estándares CGA y EGA estaban en todo su esplendor. Las tarjetas gráficas AMD Radeon llegaron mucho después, concretamente tras la compra de ATi por parte del gigante de Sunnyvale y la disolución de aquella en 2006. La primera generación de tarjetas gráficas AMD Radeon fue la serie Radeon HD 6000, ya que las Radeon HD 5000 todavía utilizaron la marca ATi.

En líneas generales, la serie Radeon HD 6000 ofreció un rendimiento bastante bueno, aunque no logró arrebatar la corona a la serie GTX 500 de NVIDIA. AMD hizo también un buen trabajo con las Radeon HD 7000, aunque su apuesta por DirectX 12, y las funciones más avanzadas de dicha API, en una época en la que casi todos los desarrollos estaban centrados en DirectX 11 le hizo perder enteros frente a la serie GTX 600 de NVIDIA. Al final, dicha generación ha envejecido mejor, pero ha sido tan a largo plazo que el valor que podemos darle resulta cuestionable.

Tarjetas gráficas AMD Radeon: ¿Deberían ser más baratas que las GeForce RTX? 28

Vamos a avanzar un poco en el tiempo. Cuando NVIDIA lanzó las GeForce RTX serie 20, basadas en la arquitectura Turing, llevó a cabo un movimiento muy arriesgado ya que en vez de centrarse en mejorar el rendimiento bruto en rasterización optó por la especialización, una realidad que se materializó a través de dos grandes frentes: los núcleos tensor, especializados en inteligencia artificial, y los núcleos RT, especializados en trazado de rayos.

Para introducir esos dos bloques de núcleos, NVIDIA tuvo que dedicar una parte muy valiosa del espacio del encapsulado, y esto hizo que el aumento de rendimiento en rasterización fuese menos marcado que en la generación anterior. Las críticas que recibió el gigante verde fueron muy marcadas, pero al final está claro que la compañía tomó el camino correcto, solo tenemos que ver lo bien que rinden a día de hoy tarjetas gráficas tan modestas como la RTX 2060, el potencial que tiene en trazado de rayos comparada con la serie de tarjetas gráficas AMD Radeon RX 6000, y su capacidad para mover juegos en 4K gracias al DLSS.

AMD, por contra, siguió una estrategia menos arriesgada y más discreta. La serie de tarjetas gráficas AMD Radeon RX 5000 no tienen hardware especializado para trazado de rayos, ni tampoco otro hardware específico para inteligencia artificial. Cuando llegaron al mercado, las Radeon RX 5700 presumían de tener un rendimiento ligeramente superior al de la RTX 2060 y un precio similar, lo que las convertía en una solución interesante. Lo mismo ocurría con la RX 5700 XT frente a la RTX 2070.

rendimiento

Clic para ampliar

En aquél momento, tanto el trazado de rayos como el DLSS se encontraban en una etapa muy temprana, y esto hacía que no se les considerase como un valor diferencial a la hora de elegir una u otra tarjeta gráfica, pero hoy la situación ha cambiado por completo. Ambas tecnologías están presentes en una cantidad notable de juegos, su tasa de adopción no hace más que crecer, se utilizan en algunos de los triple A más importantes del momento y marcan una diferencia muy importante. Por todo ello, ya no podemos seguir mirando hacia otro lado cuando hablamos de ellas, y tenemos que darles la importancia que merecen.

Tarjetas gráficas AMD Radeon: Una reflexión sobre el precio de venta

En cada generación de tarjetas gráficas, tanto AMD como NVIDIA han afinado el precio de sus principales productos, y lo han ido ajustando en tiempo real no solo a las necesidades del mercado, sino también a la estrategia de la competencia, y al valor del catálogo de aquella. Así, por ejemplo, cuando ATi o AMD han tenido un producto muy atractivo, NVIDIA ha bajado precios y, en algunos casos, ha lanzado nuevos productos para contrarrestarlos. Lo mismo ha ocurrido a la inversa.

Sin embargo, con las últimas generaciones gráficas, esta estrategia no ha sido tan marcada, y a día de hoy muchas tarjetas gráficas AMD Radeon RX 6000 tienen un precio de venta recomendado superior al de las GeForce RTX 30 equivalentes. Hablo de precios recomendados porque son los que ha dado oficialmente cada compañía, y porque los precios inflados que se mueven en el mercado actualmente no merecen ningún tipo de atención, puesto que son una auténtica locura.

Tarjetas gráficas AMD Radeon

Vamos a verlo con algunos ejemplos. La RX 6700 XT tiene un precio recomendado de 489,99 euros, una cifra que la coloca prácticamente al mismo nivel que la GeForce RTX 3070, que cuesta 519 euros. La diferencia de precio es de apenas 29,01 euros. En términos de rendimiento, la solución gráfica de AMD queda un poco por detrás de la RTX 3070 en rasterización (es, de media, un 7% más lenta), pero en trazado de rayos la diferencia de rendimiento entre ambas es enorme. Os dejo algunos datos para que podáis comparar:

  • Metro Exodus en 1440p, calidad ultra y trazado de rayos: la RX 6700 XT logra medias de 59 FPS, mientras que la RTX 3070 consigue medias de 79 FPS.
  • Control en 1440, calidad máxima y trazado de rayos: de nuevo la RX 6700 XT queda muy por detrás, ya que alcanza una media de 23 FPS, mientras que la RTX 3070 logra 40 FPS, y sin activar el DLSS de segunda generación.
  • Cyberpunk 2077 en 1440, calidad máxima y trazado de rayos: la RX 6700 XT tiene medias de 15 FPS, mientras que la RTX 3070 logra medias cercanas a los 30 FPS, y sin activar el DLSS de segunda generación.
Tarjetas gráficas AMD Radeon: ¿Deberían ser más baratas que las GeForce RTX? 32

Cyberpunk 2077 con trazado de rayos funcionando sobre una RTX 3080 Ti. La calidad gráfica es impresionante. Haz clic para ampliar.

Creo que los datos que acabamos de ver hablan por sí solos. Las tarjetas gráficas AMD Radeon RX 6000 ofrecen un excelente rendimiento en rasterización, son eficientes y cuentan con la ventaja de ofrecer una alta cantidad de memoria gráfica, pero en trazado de rayos su rendimiento está una generación por detrás de NVIDIA. No exagero, el resultado que obtiene esa Radeon RX 6700 XT en Control, esos 23 FPS de media, la colocan en la liga de la RTX 2060, que consigue una media de 20 FPS.

Si introducimos en la ecuación el DLSS de segunda generación, vemos que la situación empeora notablemente para las tarjetas gráficas AMD Radeon RX 6000. Dicha tecnología puede llegar a triplicar el rendimiento en algunos casos, y representa un valor tan grande que permite a una modesta RTX 2060 mover juegos como Red Dead Redemption 2 en 4K. Ya lo vimos en este artículo, la RTX 2060 pasaba de 23 FPS a 35 FPS gracias al DLSS de segunda generación.

Tarjetas gráficas AMD Radeon: ¿Deberían ser más baratas que las GeForce RTX? 34

Me he centrado en hablar de la RTX 2060 porque fue, en su momento, una tarjeta gráfica muy cuestionada, y sin embargo ha envejecido de maravilla, tanto a nivel de soporte en drivers como de rendimiento, de hecho podemos decir que gracias al DLSS está teniendo una segunda vida. En Red Dead Redemption 2, la mejora de rendimiento que consigue al activar el DLSS de segunda generación coloca a la RTX 2060 por encima de la RX 5700 XT. ¿No te sorprende? Pues apunta, puede mover DOOM Eternal en 4K con trazado de rayos activado y DLSS en modo rendimiento bajo resolución 4K manteniendo medias de más de 50 FPS. Eso es imposible con una RX 5700 XT.

Tarjetas gráficas AMD Radeon: ¿Deberían ser más baratas que las GeForce RTX? 36

Metro Exodus Enhanced Edition con trazado de rayos al máximo sobre una RTX 3080 Ti. La calidad de la iluminación y de las sombras es fantástica. Haz clic para ampliar.

En el párrafo anterior hemos visto algo muy importante, y es que, más allá del tema del rendimiento bruto, la GeForce RTX 2060 es capaz de hacer cosas que no están alcance de una RX 5700 XT, y que marcan una diferencia muy grande. El trazado de rayos es inviable en una RX 5700 XT porque carece de hardware dedicado a la aceleración de dicha carga de trabajo, y esta tecnología ya ha demostrado que puede mejorar en gran medida la calidad gráfica en juegos. Por otro lado, el DLSS de segunda generación también ha puesto sobre la mesa una realidad muy clara: supera de largo al FSR de AMD.

No hay duda de que aquellos que compraron una GeForce RTX 2060 cuando estuvo disponible por menos de 300 euros (llegó a costar 260 euros) tomaron una decisión acertada. Los que optaron por una Radeon RX 5700 también disfrutaron de un buen nivel de rendimiento, y han podido amortizar su inversión durante un tiempo razonable, pero poco a poco están viendo como dicha tarjeta gráfica está perdiendo atractivo debido al empuje del trazado de rayos y del DLSS.

Tarjetas gráficas AMD Radeon: ¿Deberían ser más baratas que las GeForce RTX? 38

Con todo eso en mente, podemos sacar una conclusión muy sencilla, y es que el valor de una tarjeta gráfica no viene determinado únicamente por su rendimiento bruto, ni por la cantidad de memoria gráfica que tenga. La arquitectura y el hardware especializado marcan, al final, diferencias importantes que no podemos obviar. Las tarjetas gráficas GeForce RTX 20 supusieron un salto tan grande gracias a esas dos claves que hoy están viviendo, como anticipamos, una segunda juventud, y están demostrando que su rendimiento en trazado de rayos está al nivel de las Radeon RX 6000, una línea que llegó al mercado dos años más tarde.

En ese contexto, ¿es justo pagar el mismo precio, o incluso más, por una tarjeta gráfica que ofrece un valor claramente inferior? Creo que la pregunta se responde sola. Los que nos leéis a diario sabéis que soy imparcial, y que desde el lanzamiento de las tarjetas gráficas AMD Radeon RX 6000 he valorado muy positivamente el enorme salto que representan en materia de rendimiento y de eficiencia, y también es digno de mención que AMD haya dotado a toda la gama alta de 16 GB de memoria gráfica.

Tarjetas gráficas AMD Radeon: ¿Deberían ser más baratas que las GeForce RTX? 40

El FSR de AMD genera una pérdida muy grande de nitidez. A la izquierda, resolución nativa, y a la derecha el FSR activado. Clic para ampliar.

Sin embargo, no podemos decir solo las cosas buenas, también hay que tener en cuenta los aspectos negativos, y en el caso de las tarjetas gráficas AMD Radeon RX 6000 está claro que no pueden competir de verdad al mismo nivel que las GeForce RTX 30 si tenemos en cuenta el trazado de rayos y el DLSS. A mi juicio, esto es una razón más que suficiente para que las tarjetas gráficas AMD Radeon RX 6000 deban situarse en un rango de precios más económicos que sus contrapartes.

¿Por qué no han llegado las tarjetas gráficas AMD Radeon RX 6000 a un precio inferior?

Es una pregunta complicada, pero tengo una idea bastante acertada de lo que puede haber ocurrido. Lo primero que debemos tener en cuenta es que cada empresa puede vender sus productos al precio que quiera, y las tarjetas gráficas AMD Radeon RX 6000 no son una excepción. Por otra parte, también hay que tener presente que, cuando vendemos un producto a un precio inferior al de la competencia, estamos «devaluando» dicho producto, generando una sensación en el consumidor de que «es más barato, tiene que ser mucho peor».

AMD lleva un tiempo intentando desprenderse de esa idea, es decir, de la creencia general, y errónea, de que todos sus productos y soluciones son una alternativa «económica e inferior» a los de Intel y AMD. Lanzar las tarjetas gráficas AMD Radeon RX 6000 con un precio notablemente inferior al de las GeForce RTX 30 habría sido lanzar piedras contra su propio tejado, al menos en este sentido.

Tarjetas gráficas AMD Radeon

Tenemos que sumar también a todo lo anterior el tema de los costes. Las GPUs que utilizan las tarjetas gráficas AMD Radeon RX 6000 tienen un coste elevado sobre la oblea porque utilizan una configuración de núcleo monolítico con un alto conteo de shaders, y también porque vienen acompañadas de una gran cantidad de caché L3. AMD tiene que rentabilizar los costes de producción de las tarjetas gráficas AMD Radeon RX 6000, y también los de desarrollo de la arquitectura RDNA 2, que como sabemos es la base de esa generación.

Al final podríamos pensar que todo es un tema de imagen, de costes y de rentabilidad, pero  lo cierto es que AMD también ha intentado aprovechar la tendencia de algunos usuarios, y de ciertos medios, de lanzar una mirada a corto plazo cuando se trata de invertir en tecnología. Sí, es importante comprar un producto que rinda bien hoy, pero debemos pensar también en el mañana.

Las tarjetas gráficas AMD Radeon RX 6000 rinden muy bien hoy, pero solo en rasterización, ya que en trazado de rayos su rendimiento se reduce enormemente, y el FSR no es una alternativa realmente atractiva para compensar esa pérdida de rendimiento. El trazado de rayos está experimentando una adopción cada vez mayor, PS5 y Xbox Series X-Series S soportan esta tecnología, y esto ha hecho que los desarrolladores la utilicen cada vez más.

Tarjetas gráficas AMD Radeon: ¿Deberían ser más baratas que las GeForce RTX? 43

Clic para ampliar.

Si las tarjetas gráficas AMD Radeon RX 6000 «pinchan» en trazado de rayos hoy, ¿cómo aguantarán el tipo dentro de un par de años, cuando los desarrollos de nueva generación empiecen a ser la norma? Me atrevo a pensar que no muy bien, y que para entonces las GeForce RTX 30 habrán envejecido mucho mejor, a pesar de que tuvieron un precio recomendado inferior en muchos casos.

Mi conclusión, tras todo lo expuesto, es muy simple. El precio de venta recomendado de las tarjetas gráficas AMD Radeon RX 6000 debería ser inferior, sin ninguna duda. Sé que, con la inflación actual, esto no iba a cambiar gran cosa, pero reflejaría de una manera más apropiada el valor real que ofrece al usuario, y evitaría malentendidos que, al final, acaban siendo forzados por los fanáticos de una y otra marca, y que solo perjudican al consumidor con menos conocimientos.

Editor de la publicación on-line líder en audiencia dentro de la información tecnológica para profesionales. Al día de todas las tecnologías que pueden marcar tendencia en la industria.

33 comentarios
  • Gregorio Ros

    Totalmente de acuerdo con el artículo y su conclusión. La remontada de AMD ha sido épica y digna de reconocimiento, mucho más si tenemos en cuenta el buen soporte multiplataforma de AMD, pero Nvidia ofrece un valor añadido muy goloso y quien se gasta 500 euros o más en una gráfica dudo que esté dispuesto en conformarse con menos.

  • El FSR de AMD es una total chapuza.
    Con la salida de las tarjetas gráficas de Intel, AMD va a estar en la cola.

  • Benito Camelas

    Pues si, deberían ser la mitad de precio que una Nvidia ya que al final ofrecen una experiencia de trazado de rayos algo «capada», igual por eso no se ven muchos portátiles con gráficas AMD, a este paso voy a tener que comprar uno con Nvidia y no me gustaría por su política de drivers en linux, solo por eso me voy a una AMD, pero quizás acabe comprando una Intel, pero sin duda mi decisión va a tener más que ver con la disponibilidad, ya que de momento solo he encontrado el ASUS ese de 2000€ con una gráfica AMD y no es que sea la más potentilla de las RX 6000 M.

    Si alguien me preguntara para montar un pc de juegos, le tendría que recomendar una nvidia, ya que con la solución de AMD de esta generación del 2021 se le va a quedar muy corta para lo que tendría que pagar por ella, a ver si para el 2022 AMD se pone las pilas con el trazado de rayos y ofrece un producto que realmente compita a nivel de hardware con nvidia.

  • javi

    a dia de hoy AMD saca mas ftps que nvidia, sion RT y dllss, es decir, son mas potentes (quien lo diria). Ademas conozco gente que tiene una 3090 y tiene el RT y dlss desactivado porque el primero hace caer los fps a la mitad, y el segundo emborrona la pantalla. Del Fsr ni hablamos, son mierdas de tecnologias que estas muy verdes, mucho y que encarecen el producto final para nada.

    Al final yo optaria por una 6900xt por potencia y porque quiero mas fps y paso del RT y del DLSS

  • Yo lo dudo, debido a que AMD está por detrás de sus competidores en tecnología, está apostando por potencia bruta para mantenerse.

  • javi

    de hecho arroja mas fps que la 3090, pero los sectarios de nvidia son incapaces de reconocer que ni RT ni DLSS sirve para nada. Llamar 4k al dlss on reescalado y tal es como no tener ni p.i. basicamente de lo que es un 4k. PEro todo sea para que no escueza una inversion tan grande en dinero y no reconocer que han tirado el dinero en 2 tecnologias que no valen para nada, salvo para tenerlas desactivadas

  • Miguel

    Creo que desde hace un año no existe precio de referencia. Es todo una farsa. Deberían es más dejar de anunciarlo. Si anuncias que vale x debe salir a x con un 10% de variación según tienda o modelo.
    Anunciar a 399 un producto y que salga a 800 es estafar al personal en su cara.

  • VMXDESTROY

    yo lo veo muy claro , como dicen algunas personas en los comentarios , al final este tipo de tecnologias son una casteña , no valen para nada , solo para activarlas , como el rt , ver los brillitos un poco y luego acto seguido ver que los fps son la mitad de los que tenias sin activarlo , y ver que en realidad no se nota casi nada xD. Yo tengo una 6800xt y de verdad , os lo juro , que siendo completamente objetivo , no activo el RT hasta que no convelle ninguna perdida de rendimiento , yo juego a 1440p y 144hz , y no pienso perder la mitad de mis fps por activar unos brillos que no se notan mas que en minecraft. Aunque tuviera una 3090 , en Battlefield , o en the witcher , o en el red dead, da igual , no pienso perder fps por una tecnologia que da igual , es como los nvidia efectos estos que salian del humo realista y el pelo , que si muy bonito , pero pierdes fps en detalles que notas solo si lo miras con lupa. Y encima sacan RT en juegos competitivos , cuando en esos juegos lo que necesitas son fps y latencias bajas xD

  • GRABIELA MUSSINI

    Desde q dejé amd dije si vuelvo a tener pc quiero NVidia ya no quiero conformarme quiero estar a gusto

  • Miguel Andrada Alfonso

    El DLSS es un reescalado, que no os engañen. Y el trazado de rayos no lo soportan tantos juegos.

    Por cierto, en Passmark, la 6900XT primera.

  • Miguel Andrada Alfonso

    Otra cosa, cada juego te da un rendimiento diferente, unos van mejor con nvidia y otros con amd, que no os convenzan con una lista de 3 juegos, mirar mas comparativas.

  • Felix Mongort

    Los precios siempre se ajustan entorno a la relación de oferta y demanda, a menos que los políticos gobernantes de turno alteren eso. Hoy día la demanda de tarjetas gráficas, claramente multiplica la oferta. Si AMD fabricara el doble de GPUs, vendería el doble y todavía la demanda superaría a la oferta. En esta situación es normal que no bajen de precio las tarjetas gráficas independientemente de la marca de la GPU que lleven. La minería se lleva el grueso de las ventas, y para minar ni el DLSS ni el trazado de rayos sirven para nada. Si los gamers no compran las tarjetas gráficas con GPU de AMD, lo harán los mineros.

  • Víctor Martín

    Yo lo que tengo claro es una cosa, si Nvidia no hubiese puesto una cantidad tan penosa de memoria en sus gráficas, no habría ninguna discusión… Porque a mí sinceramente el trazado de rayos me importa más bien nada… El reescalado… No deja de ser eso, un reescalado, dices que estás jugando a 1440 y en realidad no juegas a eso 🤷🏻, es el engañabobos que nos metieron en las consolas… Si quiero jugar a una resolución inferior, ya lo pongo yo a mano, gracias…
    Quitando esas 2 cosas que no me interesan lo más mínimo, la pelea estaría igualada, pero simple y llanamente porque Nvidia no le salió de ahí meterle 10€ más de inversión a las tarjetas y meterle una cantidad decente de memoria… Si lo hubiesen hecho no habría discusión

  • darkkness

    Totalmente de acuerdo contigo.

  • Isidro Ros

    Mira la última imagen del artículo, y vuelve a repetir que DLSS es un «simple reescalado, un engañabobos» 🙂

    El DLSS ha sido uno de los avances más importantes que se han producido en el sector en los últimos años, tanto que hasta Intel ha reconocido su importancia (de forma indirecta) al crear el XeSS, su rival directo.

    No entiendo cómo todavía se mantiene esa especie de mantra, pero bueno, al final cada uno es libre de pensar y de creer lo que quiera, el problema viene cuando confunde con ello a otros. Eso es lo que no está bien.

    Saludos.

  • Víctor Martín

    No perdona, no confundí a nadie al decir que es un simple reescalado, que es sino?? Es un algoritmo de reescalado igual que el que hacía la PS4 o la xbos one, con mejores o peores resultados, eso todo depende el algoritmo para reescalar, hay cientos de tipos de formas de reescalar una imagen, pixeles por proximidad, de matriz adjunta, para equilibrar los bordes… Hay muchos, y el dlss es uno más, un reescalado de una imagen, y querer decir lo contrario si que es confundir a otro, dlss es un simple algoritmo de reescalado de imágenes.
    Y si dices que engaño dime porqué, no tires la piedra y escondas la mano, dime porqué no es cierto lo que digo y a demás di que es el dlss si no es un algoritmo de escalado de imágenes

  • Isidro Ros

    No escondo nada, pero tú dices cosas que no son verdad, y con eso confundes a otros lectores. Qué sí, un coche es un coche, pero no por eso es justo decir que un Ferrari es lo mismo que un seiscientos.

    «Es un algoritmo de reescalado igual que el que hacía la PS4 o la xbos one, con mejores o peores resultados»

    Mentira, no son lo mismo ni de lejos. PS4 y PS4 Pro utilizaban reescalado de tipo «Checkerboard», que renderiza solo el 50% de los píxeles, los «estira» para rellenar huecos y aplica después un filtro temporal de reconstrucción para suavizar bordes. Por eso, los juegos reescalados en ambas consolas tienden a presentar artefactos y errores. Representa también una carga de trabajo para la GPU, ya que esta tiene que analizar los fotogramas anteriores para generar esa parte del nuevo que no se renderiza.

    DLSS utiliza un algoritmo apoyado por inteligencia artificial, se ejecuta en hardware especializado y permite renderizar diferentes cargas de pixeles, no parte siempre del 50%. Tampoco «estira» sin más y aplica un filtro, sino que combina imágenes renderizadas a menor resolución para crear lo que, según ese algoritmo, es una imagen perfecta. Trabaja teniendo en cuenta vectores de movimiento, lo que reduce los artefactos y los errores en cada nuevo fotograma. El resultado es tan bueno que, como se puede ver en la última imagen del artículo, mejora el resultado de la resolución nativa en largas distancias. Sí, esa imagen por la que te he preguntado y que has ignorado por completo.

    Partes de un enfoque simplista y extremista. Es un algoritmo de reconstrucción y reescalado de la imagen especializado, basado en IA y apoyado por hardware especializado, y es una tecnología que, hasta su adopción por parte de NVIDIA, no se había utilizado, tal cual, en ninguna plataforma de consumo.

    De nuevo, si es un simple reescalado, explícanos por qué es capaz de mejorar la imagen en modo calidad frente al modo nativo. Explícanos la última imagen del artículo, y dinos qué otros reescalados están al nivel del DLSS y por qué (que ya se usen en el mercado de consumo general, PC o consola).

    En cualquier caso ya lo dijo Eric Risser, CTO de Artomatix:

    «Como experto en el tema del reescalado y en trabajo con imágenes de baja resolución, me decepciona un poco que Sony utilice una técnica tan simple y pasada de moda como el Checkerboard… Ojalá hubieran trabajado con una compañía como nosotros que somos expertos en este tema, y que llevamos años empleando tecnologías de reescalado que usan redes neurales (IA y aprendizaje profundo) y que están a años de distancia de los métodos tradicionales».

    El DLSS encaja con la segunda concepción que ofrece Eric, y sí, es muy diferente al reescalado de PS4. ¿Es totalmente nuevo el concepto del DLSS? No, pero fue el primero de su clase en llegar al sector gráfico de consumo general.

    Más claro no puedo ser. Con todo, tú sigues siendo libre de creer lo que quieras creer.

    Saludos.

  • Isidro Ros

    Esa es la idea, Gregorio.

    Por otro lado, también recuerdo cuando parecía una locura pagar 270 euros por la RTX 2060 y mírala, moviendo juegos en 4K gracias al DLSS y envejeciendo mejor que modelos más caros.

    Saludos.

  • Víctor Martín

    Lo que me has venido a decir es que es un algoritmo de reescalado pero con inteligencia artificial (cosa que no es el único algoritmo de reescalado que utiliza IA) y con un hardware especifico…

    Lo de que explique porque es capaz de mejorar la fotografía respecto a la imagen en nativo… pues en esa quedará mejor y en otras peor, es lo que tiene el reescalado… en muchas imágenes que por las limitaciones de la resolución en la que pones a trabajar la grafica (sin usar reescalado) pues siempre va a haber imperfecciones en las imágenes, y al reescalar se pueden corregir esas imperfecciones, o empeorar cosas que ya estaban bien, no es algo único del DLSS… el reescalado más cutre, con determinada imagen, puede corregir muchas imperfecciones, o puede cargarse la imagen más…

    Claro que es un reescalado muy diferente al de la ps4, prácticamente todos los algoritmos de reescalado son muy diferentes. El que utiliza DLSS dará mejores resultados que el de la PS4… faltaría más… Es que si fuese peor apaga y vámonos.

    Yo tampoco puedo ser más claro que en mi primer mensaje, si quiero jugar a 4k, juego a 4k, y si quiero jugar a menos, pues ya me pongo yo a menos resolución. No me hace falta ningún reescalado… Tu también eres libre de creer que se juega mejor de otra manera 😀

  • Isidro Ros

    En tu respuesta, has estado un poco más fino 🙂

    ¿Pero cómo es posible que un engañabobos que no vale la pena, según tu primer comentario, mejore la calidad de imagen de esa forma frente a la resolución nativa? 😉

    Las imperfecciones en las imágenes son mínimas cuando utilizas vectores de movimiento y renderizas desde el modo calidad o el modo equilibrado. Incluso en el modo rendimiento, que lo he usado mucho en Cyberpunk 2077 para jugar en un portátil con RT activado, el resultado con una pantalla de 15,6 es soberbio.

    Otra cosa:

    «si quiero jugar a 4k, juego a 4k, no pongo menos resolución».

    Pero a ver, si a 4K el DLSS en modo calidad se ve mejor que el modo nativo y encima mejora el rendimiento, ¿sigues eligiendo el nativo? Es que no lo entiendo, de verdad.

    Saludos.

  • Richi

    Totalmente de acuerdo, eso si… hay muchas criticas hacia AMD por el precio, cuando Nvidia con las RTX 2000 la gente pagaba muy felizmente un dineral y con el RT en fase beta practicamente, ahora las RTX 3000 sobre todo la 3070 la sacan a 500€ (que yo nunca la vi a ese precio por cierto) con el rendimiento de una RTX 2080Ti, quien se cree eso, yo no la he visto a ese precio de hecho la veo al mismo de antes, que han bajado de precio ofreciendo un rendimiento superior, que en realidad no deja de ser mas marketing por que ya sabían del problema de stock y que iban a subir el precio, etc

    AMD no tiene porque bajar el precio, rinden igual, pues al mismo precio, es logico, ahora existen problemas de suministro y no se puede opinar sobre esto, es la ley de la oferta y la demanda. Si la gente lo paga, lo seguiran vendiendo a lo que quieran, de hecho el que rinda un 5 o 10% mas o menos no significa nada, solo son numero de nuevo, para desprestigiar y sacar musculo, mas que para hacer una valoración real de rendimiento general y soporte de futuro…

    Voy a hacer un apunte a favor de AMD porque creo se lo merece…

    AMD siempre rinden durante mas tiempo y además van mejorando, vease las RX570 580, la pila de años que tienen y superan a graficas como las 1060 1070 respectivamente y cuando salieron a la venta estaban por debajo de la 1060, sin duda AMD ofrece a largo plazo mejor soporte, por eso hay gente que opta por AMD, se sabe y se a demostrado, luego está el fanboismo hacia Nvidia porque tiene ciertas tecnologías y un marketing de la leche que al igual que Intel nos meten por los ojos lo del RT como algo rompedor y esta en pañales y un lastre sin igual.
    Luego llegó el DLSS que mas o menos fué y es un buen invento por tener «IA», pero para paliar el lastre del RT, no era una tecnología revolucionaría, ya que el reescalado lo utilizan las consolas desde hace tiempo… ASí que nose, quien le de igual todo y comprarse lo ultimo, Nvidia ahora mismo, cueste lo que cueste, mañana igual AMD da la sorpresa, y el que quiera buen rendimiento de futuro, AMD sin dudarlo, al menos desde mi punto de vista. Aunque ahora estamos en una especie de cambio generacional, se vienen cosas nuevas, sobre todo de AMD y las nuevas de gama de entrada de Intel.

  • Lero

    Observa que a la gente “normal” nos importa poco ciertas tecnologias que se meten con calzador y que pueden ayudar a equipos con poca potencia gráfica, pero que se hizo para ayudar a mejorar el lastre en rendimiento del RTracing.
    El tema está que si yo quiero jugar en 4K nunca voy a poner DLSS porwue para eso no me compro un TV 4K.
    Me gustaría que vierais y me dijeses si realmente se nota la diferencia entre dlss activado en un TV 4k (que funcionara en QHD o FHD..)
    Luego en un monitor o TV de la misma calidad ejecutalo a FUllHd y verás lo que te esta diciendo todo el mundo. Da igual que sea un reescalado Inteligente, que si, que es muy bueno mejorando los detalles y enfoques…
    Por cierto que lo defienda Intel le viene bien ya que viene con retraso en el mundo de las Tarjetas Graficas y necesita reescalar comp las consolas…
    De nuevo añadir tambien elque FSB es una revolución si es que al mundo gaming le interesa… y sería beneficioso para un grupo muy grande de gamers…

  • Susho

    Que el DLSS mejore en un juego las imagenes pequeñas no significa que se juegue mejor, pierde fondo tridimensional, hay muchas criticas sobre esto, seguramente muchos no lo noteis pero ahora mismo los juegos no estan pensados para jugar con esta trcnología como debería, y el dlss ayuda a mejorar el rendimiento pero eso consume recursos, no esta bien implementado en una grafica cuando debería hacerlo una cpu…
    Intel seguro que lo hace mejor que Nv…0

  • Hermen

    Ya te digo, gaston en 2 tecnologías que como no lo tengas activado, algo pasa…
    El timo de siglo

  • BoB

    Solo sirve para eso, para remontar viejas graficas compatibles con el RT.
    Cuando saquen nuevos juegos con implementación 100% RT y sean compatibles con el FSR de AMD, habrá graficas de polaris que podrán mover los juegos de 2022, será impresionante. Cualquier gráfica de AMD será compatible con raytracing y además mejorarán Notablemente las Xbox y PS5…
    Luego se las criticará por que usan reescalados, XD

  • Lore

    La mitad no pero 100€ menos si. Aunque ahora no se puede valorar bien, siempre me ha parecido AMD calidad/precio sobresaliente.

    Pero primero hay que valorar tus necesidades y presupuesto, si prefieres ciertas markas y por último, esperate a que bajen dd precio…

  • Isidro Ros

    «Solo sirve para eso, para remontar viejas graficas compatibles con el RT.
    Cuando saquen nuevos juegos con implementación 100% RT y sean compatibles con el FSR de AMD»

    Dejé de leer ahí. FSR es un simple reescalado que ni siquiera utiliza vectores de movimiento. Repito, en la última imagen del artículo se puede ver el resultado de resolución nativa, FSR y DLSS. El FSR omite elementos gráficos y logra un rendimiento muy pobre. Más claro imposible, el resto, fanatismos de cada uno y argumentos vacíos.

    Saludos.

  • Isidro Ros

    «pierde fondo tridimensional»

    ¿De qué hablas? Explica eso porque vamos, no tiene sentido alguno. Danos una explicación técnica por favor.

    Sí, está claro que el DLSS consume una pequeña porción de milisegundos al generar cada fotograma, pero eso no es nuevo, y consume mucho menos que el renderizado en nativo, si no, no mejoraría el rendimiento.

    Me da la impresión de que no tienes claro lo que quieres decir, o que no te has expresado bien.

    Saludos.

  • Isidro Ros

    «Observa que a la gente “normal” nos importa poco ciertas tecnologias que se meten con calzador y que pueden ayudar a equipos con poca potencia gráfica, pero que se hizo para ayudar a mejorar el lastre en rendimiento del RTracing.»

    Tú eres un usuario más, y nadie te ha dado el derecho a representar a lo que tú consideras gente normal. Hablas por ti, y eso está muy bien. Ahora, que lo que digas tenga más o menos sentido, es otra cosa.

    «Me gustaría que vierais y me dijeses si realmente se nota la diferencia entre dlss activado en un TV 4k (que funcionara en QHD o FHD..)
    Luego en un monitor o TV de la misma calidad ejecutalo a FUllHd y verás lo que te esta diciendo todo el mundo. Da igual que sea un reescalado Inteligente, que si, que es muy bueno mejorando los detalles y enfoques»

    ¿De qué hablas? ¿Qué me está diciendo «todo el mundo? ¿Quién es todo el mundo? ¿Dos personas que dicen que el trazado de rayos y el DLSS es un engañabobos? Y de nuevo te vas al FSR (que has escrito como FSB)… No se nota nada de qué pie cojeas :). Nada, no tengo tiempo para perderlo con estas cosas y con estos bucles.

    La realidad es la que es, el DLSS de segunda generación está muy por encima del FSR. ¿No te gusta? No pasa nada, pero no defiendas lo indefendible por tu fanatismo a una marca. Termino aquí, vamos a dejar de ensuciar este hilo, gracias.

    Saludos.

  • DAVID SALSERO

    El controlador AMD DisplayPort Thunderbolt Tunneling ya está disponible en los últimos parches del kernel de Linux, la compatibilidad con USB4 finalmente llegará a principios de 2022 será un salto Muy Grande frente a la generación anterior.
    La función de tuberización permite que los protocolos de transferencia USB, DisplayPort y PCIe funcionen simultáneamente al compartir el ancho de banda disponible. Por ahora, solo las especificaciones DisplayPort 1.4 son compatibles con los controladores de túnel de AMD. Con suerte, las especificaciones de DisplayPort 2.0 podrían agregarse para cuando AMD presente sus soluciones integradas y portátiles de próxima generación a principios de 2022.
    Todo esto solo podría significar que la compatibilidad con USB4 llegará a las plataformas de AMD a principios de 2022
    https://www.notebookcheck.net/fileadmin/_processed_/7/1/csm_image.axd_9508b32f01.jpg

  • DAVID SALSERO

    El 90% de los Gamer piensan igual, y por eso muchos de ellos compran AMD ademas de que su precio es inferior al de Nvidia.

  • GOrila

    Cuando alguien habla de algo que no te gusta le baneas, a nadie le gusta que hablen mal de sus ediciones, pero intentas explicar las cosas con palabras técnicas que luego a la hora de la verdad no significan mucho para el usuario final, hay que leer mas en otros foros `para entender lo que intenta decir este usuario`

    NOTA: Enhorabuena, sabes indentificar una IPpublica…

  • saberbholt

    Pues yo estoy de acuerdo Dlls es un quiero y no puedo, la imagen en 4k debería ser nativa, sino me das eso para que me gasto un pastón en un monitos 4k o en una tele 4k de ultima generación?.
    Es como poner un BlueRay full hd en una tele 4K , un escalado mejor o peor pero que nunca igualara un BluRay nativo 4k, por mucho que te guste como reescala tu televisor o el reproductor.

Lo más leído