Web Analytics
Conecta con nosotros

A Fondo

La Radeon RX 6900 XT es muy potente, pero se derrumba al activar el trazado de rayos

Publicado el
La Radeon RX 6900 XT es muy potente, pero se derrumba al activar el trazado de rayos 31

Ayer se produjo el «lanzamiento» de la Radeon RX 6900 XT, entrecomillado porque, lamentablemente, no hemos sido capaces de encontrar ni una unidad disponible al momento de escribir estas líneas, y me consta que ayer se vivió la misma escena.

Cuando AMD presentó la Radeon RX 6900 XT dejó claros tres grandes conceptos: iba a competir con la RTX 3090, tendría un precio de 999 dólares y sería capaz de ofrecer un valor precio-rendimiento lo bastante bueno como para convertirse en la reina de la gama alta. Tras repasar varios análisis independientes, me queda claro que no se ha cumplido ninguna de esas tres claves.

Ya lo avisé en su momento. AMD mostró unos gráficos de rendimiento poco claros en los que la Radeon RX 6900 XT se veía beneficiada, además, por el «rage mode» y «SAM», dos tecnologías que le ayudaban a conseguir un extra de rendimiento y que le permitirían recortar distancia con la RTX 3090. Era obvio que, con ambas desactivadas y en igualdad de condiciones, la solución gráfica de NVIDIA iba a ser mucho más potente, y sí, también mucho más cara.

Radeon RX 6900 XT: primer vistazo y rendimiento

Radeon RX 6900 XT

La Radeon RX 6900 XT es lo más potente que AMD ha lanzado al mercado hasta el momento. Esta tarjeta gráfica se basa en la arquitectura RDNA 2, cuenta con hardware dedicado capaz de acelerar trazado de rayos y mantiene los 128 MB de caché Infinita que ayudan a incrementar el ancho de banda, y que rinden particularmente bien en resoluciones 1080p y 1440p.

Sí, has leído bien, la caché infinita ha sido una idea excelente por parte de AMD para abaratar costes y evitar los buses de más de 256 bits, pero flojea en resoluciones superiores a 1440p, algo que explica por qué la RX 6800 XT vence a la RTX 3080 en 1080p y en 1440p, pero pierde en 4K.

No es algo complicado de entender. Los que nos leéis a diario ya sabéis cómo funciona la caché infinita, esta guarda los elementos gráficos temporales que se renuevan con mayor frecuencia, y estos ocupan más espacio a mayor resolución, lo que significa que cuando nos movemos en 4K es más fácil llenarla, lo que hace que su impacto en el rendimiento se vea seriamente mermado.

Como anticipamos, la Radeon RX 6900 XT cuenta con todos los avances de la arquitectura RDNA 2, y monta un chip Navi 21 XTX completo. La calidad de construcción del diseño de referencia es muy buena, y su sistema de disipación logra mantener sin problemas unas temperaturas estables de 79 grados trabajando a máxima carga sin overclock. Estas son sus especificaciones:

  • Núcleo gráfico Navi 21 XTX en 7 nm.
  • 80 CUs activas con 5.120 shaders a 2.015 MHz-2.250 MHz, modo normal y turbo.
  • 320 unidades de texturizado.
  • 80 unidades para trazado de rayos (una por cada CU).
  • 128 unidades de rasterizado.
  • Bus de 256 bits.
  • 16 GB de memoria GDDR6 y 128 MB de caché infinita.
  • TBP de 300 vatios.
  • Necesita una fuente de 700 vatios y dos conectores de 8 pines.
  • Precio: entre 1.099 euros y 1.299 euros, según modelo.

La Radeon RX 6900 XT es muy potente, pero se derrumba al activar el trazado de rayos 34

El precio de venta de la Radeon RX 6900 XT ha quedado muy por encima de lo esperado, y su rendimiento no ha terminado de cumplir con las expectativas que había generado. Sí, es una tarjeta gráfica tope de gama, pero en 4K su rendimiento medio frente a la RTX 3080, que cuesta 719 euros, es de apenas un 4% más. Si la comparamos con la RTX 3090, vemos que pierde por un 8%.

Lo más interesante de todo esto es que, a mi juicio, la Radeon RX 6900 XT no hace más que confirmar que la RX 6800 XT representa un valor mucho más interesante, ya que es solo un 7% más lenta y tiene un precio de partida que ronda los 699 euros. No tengo ninguna duda, si vas a renovar tu tarjeta gráfica y quieres una solución de gama alta de AMD olvídate de la Radeon RX 6900 XT y ve directamente a por una RX 6800 XT.

Rendimiento en trazado de rayos: AMD tiene mucho trabajo que hacer

Las Radeon RX 6000 han sido un importante revulsivo, tanto que superaron de forma contundente mis expectativas. Recuerdo perfectamente que la mayoría de las filtraciones apuntaban que Big Navi, la RX 6900 XT, iba a superar a la RTX 2080 Ti, pero que no iba a ser capaz de competir con la RTX 3080. Como podemos ver, esas informaciones estaban totalmente equivocadas.

AMD ha dado forma a una generación muy competitiva por valor precio-rendimiento, siempre que partamos de los precios de venta recomendados y del rendimiento en rasterización. Si valoramos los precios reales, la historia cambia, pero esta realidad afecta también a NVIDIA y se debe, como sabemos, a la importante escasez de tarjetas gráficas que sufre ahora mismo el canal minorista.

Cuando hablé de las Radeon RX 6800 dije que NVIDIA tenía una arquitectura más avanzada, y tras ver el rendimiento de la RX 6900 XT con trazado de rayos no puedo hacer otra cosa que reafirmarme. Entiendo que para muchos de vosotros, el trazado de rayos sea todavía algo «lejano», y que no lo consideréis como un criterio fundamental para tomar una decisión. Lo respeto, pero se trata de una tecnología muy exigente que marca una gran diferencia en términos de calidad gráfica, y que ya se está empezando a asentar en el sector, y por tanto debemos tenerla en cuenta, nos guste más o menos.

La Radeon RX 6900 XT es muy potente, pero se derrumba al activar el trazado de rayos 36 La Radeon RX 6900 XT es muy potente, pero se derrumba al activar el trazado de rayos 38 La Radeon RX 6900 XT es muy potente, pero se derrumba al activar el trazado de rayos 40

Los chicos de Hardware Unboxed han publicado un análisis a fondo de la Radeon RX 6900 XT, y se han atrevido a valorar su rendimiento en trazado de rayos en varios juegos para ver de qué es capaz la arquitectura RDNA 2 con dicha tecnología. Los resultados no son nada buenos, como podemos ver en las imágenes adjuntas. La RTX 3090 llega a doblar el rendimiento de la RX 6900 XT, y si activamos el DLSS 2.0 en modo calidad la brecha se hace todavía más grande, y pone en evidencia que NVIDIA acertó con esa apuesta por la especialización que inició con Turing, y que ha consolidado en Ampere.

Quiero pensar que RDNA 2 es algo similar a lo que fue Turing, pero a la inversa, es decir, una generación de transición («perdida») en lo que respecta al rendimiento en trazado de rayos, pero que ha servido a AMD para consagrar un incremento enorme del rendimiento en rasterización, justo lo contrario de lo que ocurrió con las RTX 20.

Os recomiendo que veáis el vídeo adjunto al completo, ya que es uno de los análisis mejor elaborados, más completos e imparciales que he visto de la Radeon RX 6900 XT. Como siempre, si tenéis cualquier duda podéis dejarla en los comentarios y os ayudaré a resolverla.

Editor de la publicación on-line líder en audiencia dentro de la información tecnológica para profesionales. Al día de todas las tecnologías que pueden marcar tendencia en la industria.

34 comentarios
  • Jir

    Pues claro que iba a pasar, AMD llego tarde a la moda del Trazado de Rayos y como ya lo quieren implementado hasta en la sopa, pues verán con malos ojos que no se desempeñe bien.

  • Force

    El que AMD este compitiendo con lo mejor de Nvidia es digno de aplaudir, esto no pasaba desde la polémica Radeon 290, en lo personal esperaba ver más cerca a la Radeon 6900XT de la Geforce 3090, sobre todo al ver los buenos resultados de la Radeon 6800XT respecto de la Geforce 3080, pero la Geforce 3080 tiene el hándicap de la cantidad de memoria, cosa que no tiene la Geforce 3090, por tanto me supongo que Nvidia lanzara versiones “Ti” o “Super” para corregir esto, Nvidia de seguro esta tomando nota de lo que hizo AMD para la serie 4000 con mas Mhz en la GPU y utilizar ahora si los 7nm o lo que este disponible en ese momento.

    El ray tracing no es una moda pasajera, es algo que llego para quedarse afortunadamente, el éxito de Nvidia fue desarrollar un hardware especifico para ello con la serie 2000, logro que muchos no reconocieron en su momento incluida la propia AMD y que me recuerda uno de los últimos errores de 3dfx.

    Cuando se empezó a utilizar el renderizado a 32 bits hace más de 2 décadas, Nvidia y ATI (paradójicamente) entre otros empezaron a usarlo, pero tenia una enorme perdida de rendimiento respecto al renderizado a 16 bits, 3dfx dijo que no lo soportarían porque “no era un estándar” hasta ese momento y tenían razón, sin embargo, tanto Nvidia como ATI aprendieron de esa primera experiencia y en la segunda generación ya no había un impacto significativo en el rendimiento, entonces ya era un estándar y así 3dfx dio soporte pero tenían la perdida de rendimiento que los otros resolvieron con anterioridad, sobra decir que al poco tiempo Nvidia compro 3dfx, no digo que le pase lo mismo a AMD, pero son pequeños detallitos que mantienen a Nvidia en la cúspide desde hace mucho tiempo.

  • Adrián Ramón Plá

    Las primeras pruebas del RT en el juego mas esperado del año Cyberpunk 2077 es bastante decepcionante ya que si a la 3090 le cuesta mantener 60fps estables a 4k ultra con el rt activado y el dlss activado ya no se que pensar si esa es la tendencia de los juegos next gen, entonces el RT todavía está verde en las gpus actuales de Nvidia… se necesita aún mas potencia…

  • javi

    El RT ha nacido para estar desactivado, de esa forma tienes mas (muchos mas) fps y una mejor experiencia de juego.El RT es una mierda, una tecnologia en pañales que en teoria esta muy bien, pero que en la practica es un mojon sideral

  • Álvaro Lázaro Laín

    Primero, subir a 4K a 60FPS y después a esa resolución y FPS con Ray Tracing. Avanzar todas las tecnologías al mismo tiempo no es posible. Tiene que ser una generación y después otra.
    Saludos

  • Melchores

    Es que aunque parezca mentira, el raytracing sigue siendo inmanejable incluso con hardware dedicado. Que se disparan los recursos, consumos y el precio claro.
    AMD se ha olvidado de hardware dedicado porque no está engañando como hace Nvidia con su potencia bruta para luego jugar en 4K a 60fps por 2000€.

    Estamos mal o que?
    Quien puede pagar semejante salvajada para esto?
    Anda que menudos titulares también el genio y figura de siempre.
    Defendiendo a capa y espada una tecnología que sigue en pañales y que necesita una capa de reescalado para poder superar los 60fps. Es que a nadie le interesa esto ya despues de ver Cyberpunk….
    Hay ganas ya de ver como van a personalizad el juego para AMD. Pero viendo lo visto, le queda mucho. Y sigo sin entender como se agotan estas burradas obsoletas en 1 año y muy justitas ahora.

  • Pastor

    Efectivamente.
    Lo de que llegó para quedarse está muy bien. Si es increible lo realista que es.
    Y luego vas y te gastas 1000€ para jugar en FULL HD A 60 FPS.
    Hehejehe que util.

    400€ ya me parecía caro gastarme en una gráfica de gama alta. Pero ahora esto es inaceptable.
    Al menos antes tenías poder de sobra para años.
    Y ahora te compras una gráfica de 1500€ y al año que viene se queda obsoleta.
    ZZZZZ

    Creo que compraré mejor una consola o algo con AMD, al menos habrá mejor optimización de los juegos No exclusivos o lanzados por y para Nvidia.

  • Force

    ¿Cuánto tiempo tardo en “dominarse” el antialiasing a pantalla completa? Esta técnica que hoy se utiliza en todos los juegos fue presentada por 3dfx, repito… ¿Cuánto tiempo tardo en “dominarse” el antialiasing a pantalla completa? Es decir que tú lo apliques y apenas notes el cambio de rendimiento.

    Por favor, el PC gaming no empezó ayer, por Dios, son mas de 24 años que 3dfx presento la primera VooDoo, investiguen cuando apareció cada una de las tecnologías graficas que hoy se aplican en los videojuegos, en qué condiciones llegaron y cuánto tiempo paso para que se “dominaran”.

    Cuando uno lee esto “AMD se ha olvidado de hardware dedicado porque no está engañando como hace Nvidia” ya sabe uno que encontrar por aquí.

  • Force

    El ray tracing no es una mierda, es una técnica que se utiliza en programas de modelado 3D desde hace décadas y que nunca había tenido un hardware dedicado para llevarlo a los videojuegos hasta que Nvidia lo presento con las Geforce serie 2000.

    Yo me pregunto y con la ignorancia que se ve por aquí… ¿Qué pasaría si en las películas de animación (por mencionar un ejemplo) no se utilizara el ray tracing?

    La culpa es mía por entrar aquí…

  • mirage

    Cómo se comparan las AMD 6xxx con las 5xxx? En unos meses compraré nuevo monitor y tarjeta gráfica y quiero saber si vale la pena el salto a la 6Xxx o si me ahorro un dinero con una gráfica 5xxx de segunda. No le interesa el trazadonde rayos

  • jmml10382

    Vaya mierda de artículo. Se les nota el moco verde a estos tipos.
    Radeon 6900xt es un 8 por ciento más lenta en 4k que la rtx 3090. En 1440p hay leve superioridad de la 6900xt sobre la 3090. No veo una super superioridad de la ampere 3090 de manera absoluta.
    Hay mucho margen de parte de la 6900xt, en controladores….ni hablar.

  • doc

    El problema son los precios. Yo no conozco los costos de Nvidia y Amd con estas gráficas, pero terminan disparando todos los precios hasta hacerlas incomprables. El raytracing o la tecnología que esté por venir no es algo de utilidad debatible, a menos que seamos ingenieros en gráficas y anticipemos el futuro, pero la época dorada en la que todos podíamos aspirar a una gama alta, con mas o menos esfuerzo, se terminó. Sólo espero que Intel ponga un poco de contrapeso en la balanza. Algunos somos jugadores ocasionales que necesitamos de la potencia de una gráfica dedicada para lo demás.

  • Maxim 88

    El título amarillista ya habla por si solo, de como meten plata los verdes, tema de el DLSS , otra vez con eso ? No tienen la menor idea de cómo funciona eso. Es como el amd cas fidelity fx, algo que se olvidan de mencionar y lo pasan por alto. Eso lo unico que hace es trucar la imagen para dar más FPS nada más , no mejora nada visual, es más empeora, hace un downgrade para ganar FPS, es más un marketing barato que otra cosa , y lo aplicó a ambas soluciones tanto de nvidia como amd. Tema Ray tracing en nvidia están teniendo problemas sino miren el último cyberpunk 2077, la mayoría de los problemas con las RTX nuevas, ni hablamos de muertes repentinas de sus placas como pasaba con la 2080ti . Hay mucho marketing de nvidia y se nota que les están metiendo plata a los YouTubers.

  • Maxim 88

    Animación y fotografía es una cosa , se sabe que es de hace décadas ,pero en el ámbito del vídeo juego es inestable. Sino mira las muertes repentinas de las 2080ti por está tecnología. Ni hablemos de la serie nueva en el nuevo cyberpunk , un desastre.

  • Fito

    No soy pro mada yo voy precio rendimiento y RTX por ahora… A los juegos que uso no me sirve! Y en esta nota me huele mucho el lamedero de orto a Nvidia! Ojo es una empresa superiror… Con unas tecnologias de la puta madre el RTX, DLSS son sus caballitos de batalla ahora un mano a mano una 6800xt es mejor por poquito a su 3080… Yo diria empate tecnico sin ventajas de ningun tipo a cualquiera de las dos graficas! Ahora en el caso de las mas grandes que muy poca gente va a tener… Sin ayudita no seeeeeee, no te creo!

  • Fito

    Es verdad pero tampoco me vengas a poner como a un Dios al RT!! Tiempo al tiempo!! Y esta publicación es muy vendida.

  • Tito Bridge

    No es casualidad que AMD haya mencionado tan poco sus capacidades para el Ray Tracing y se hayan centrado tanto en la potencia bruta y la eficiencia energética (que son sus verdaderas bazas) Nvidia tiene una tecnología de trazado de rayos mucho más madura que AMD, en gran parte porque empezaron a trabajar con esta tecnología bastante antes. AMD se pondrá al día en próximas generaciones, pero desde luego no será con RDNA2.

  • Tito Bridge

    La diferencia de rendimiento entre la RX 6800 (que es el modelo menos potente ahora mismo) y la RX 5700 XT es bastante grande. La RX 5700 XT de segunda mano te puede valer si no quieres gastar mucho dinero, pero seguramente no bajarán demasiados sus precios hasta que la RX 6700 esté a la venta (que presumiblemente es la que ocupará el rango de precios del anterior modelo)

  • Joshua

    En resumen… Que cantidad de llorones! El corazón es rojo pera la naturaleza y la evolución pinta de verde.

  • Ashberian

    Otro artículo pro-Nvidia más, mismas bases ( los castillos en el aire de Nvidia sí valen, los de AMD no ).

    El extracto que marca el tono una vez más con las claves destacadas ( se lee lo que está en negrita y se queda la intención al desnudo ) :

    Entiendo que para muchos de vosotros, el trazado de rayos sea todavía algo «lejano», y que no lo consideréis como un criterio fundamental para tomar una decisión. Lo respeto, pero se trata de una tecnología muy
    exigente que marca una gran diferencia en términos de calidad gráfica, y
    que ya se está empezando a asentar en el sector, y por tanto debemos tenerla en cuenta, nos guste más o menos.

    Esto lo concatenamos con un absurdo como es el hecho de saber que el rendimiento en trazado de rayos de AMD Vs. Nvidia ya se sabía que no iba a existír comparación posible desde hace un tiempo significativo, noticias de anteayer para el momento en que salen algunas pruebas… y a pesar de ellos se nos planta esto en la cara:

    Los chicos de Hardware Unboxed han publicado un análisis a fondo de la Radeon RX 6900 XT, y se han atrevido

    … ¿ se han atrevido a qué exactamente ? … ¿ a abalanzarse sobre el conocido punto débil con resultados que nos sorprenderán? .

    No estoy en contra del trazado de rayos, si se estabiliza y expande mucho mejor, si más juegos ( y aquí estamos hablando de juegos, entiendo perfectamente que interese para otros usos ) empiezan a aprovecharlo y empiezana a sacar rendimiento de esta ( las «lucecitas» de ahora son pañales ) avanzamos y es bueno para todos … pero !basta ya de una condenada vez de injertar lenguaje comercial! … si una pantalla tiene un «modo efecto 3d que se cumple únicamente si el material fílmico ha sido grabado para tal efecto y te pones unas gafas plantado delante» no lo llamemos pantalla 3D porque apunta a lo que no es y de igual modo si el número de juegos que usan trazado de rayos sigue sin ser un número relevante si reducimos a un simple número ( o porcentaje de los juegos más importantes en los últimos años desde que existe esta tecnología ) y sin visos de cambiar exponencialmente a corto plazo… tenemos que efectivamente, a nivel de juegos es muy interesante pero a nivel práctico se le está dando un respaldo desproporcionado.

    Al igual que en los típicos documentales de astronomía que empiezan narcisistamente loando la grandeza del cerebro humano y sus logros con música triunfalista de fondo… a la hora de la verdad toca acostumbrarse a la bofetada de realidad.

    El glorioso DLSS no deja de ser un apaño. Muy bien pensado y todo lo que se quiera… pero también es una admisión de incapacidad.

    Se lleva hablando de 4K demasiado tiempo pero a nivel de hardware
    seguimos con unas limitaciones importantes. ¿ Alguien me señala un
    monitor – uno sólo – ultrawide , IPS 120+hz, alto refresco, 32+» 2160p ?
    ; ahora digamos que existe ese unicornio, ¿ qué GPU tiene capacidad
    para mover un juego a esa resolución a 100+FPS reales sin usar apaños
    tecnológicos ? .

    AMD también tiene castillos en el aire ( «su versión» del DLSS en desarrollo, la habitual mejora incrementalde sus drivers que hace madurar bien sus gráficas – las que salen bien obviamente – , los potenciales beneficios derivados del tradicional bloqueador del mundo de los videojuegos: las consolas ) que por lo visto no merecen ni ser mencionados

    Aunque pueda parecerlo esto no es un ataque anti-Nvidia sino una llamada a centrarse en lo que tenemos entre manos:

    – Tecnologías no asentadas ( «nos guste o no» como por lo visto se permite usar ) que habrá que ver todavía en que quedan, existe la posibilidad de que se asienten de verdad ( expandiéndose y siendo usadas de manera habitual ) en la siguiente generación de gráficas… lo cual haría más ridículo todo debate sobre las actuales en este plano de rendimiento/ trazado de rayos.

    – Rango de precios muy elevados. Y creo que no hace falta explicar como funcionan estas cosas, mayores precios implican menor número de personas con acceso a estas, consecuentemente menor interés por estas nuevas «cositas» porque el número de consumidores mayoritario no va a sentir que la cosa vaya con ellos lo que equivale a menor demanda… ¿ o ahora a las desarrolladoras de juegos les interesa invertír mayores esfuerzos sin existír demanda de manera masificada y no puntual ?

    – Sigue sin estar generalizado el jugar a 2160p ( y me clavo en 2160p, no en los habituales saltos intermedios y concesiones que siempre compensa a la industria rentabilizar ) ni existen opciones a nivel doméstico para hacerlo en condiciones paralelas a 1080p, ya he puesto el ejemplo del monitor y de la falta de potencia.

    Mientras sigamos tragando con versiones que vengan a reinterpretar la realidad ( el DLSS es ese tipo de argumentos ) seguiremos dentro de matrix.

    Luego pasarán los años y como es habitual sobrarán artículos en los que se usará el DLSS y los primeros pasos del trazado de rayos como algo de lo que reírse y ridiculizar ( un discurso viejo que lleva así décadas ) , reírse de que los supositorios en realidad no hacían falta que su aplicación ni siquiera era muy efectiva… pero ahora mismo en este momento todo este debate es nuestro supositorio y nos lo están aplicando por la misma zona.

  • Isidro Ros

    «Otro artículo pro-Nvidia más, mismas bases ( los castillos en el aire de Nvidia sí valen, los de AMD no ).»

    Leer algo que no te gusta no significa que sea pro NVIDIA o pro AMD, o no has leído bien el artículo o vives en una realidad alternativa. Solo esto, hace que no tenga ganas de contestarte, pero lo voy a hacer para que quede en evidencia lo absurdo que es tu comentario.

    «… ¿ se han atrevido a qué exactamente ? … ¿ a abalanzarse sobre el conocido punto débil con resultados que nos sorprenderán?»

    A valorar su rendimiento en trazado de rayos en varios juegos para ver de qué es capaz la arquitectura RDNA 2. Lee, lo pone en el artículo.

    «AMD también tiene castillos en el aire ( «su versión» del DLSS en desarrollo, la habitual mejora incrementalde sus drivers que hace madurar bien sus gráficas – las que salen bien obviamente – , los potenciales beneficios derivados del tradicional bloqueador del mundo de los videojuegos: las consolas ) que por lo visto no merecen ni ser mencionados»

    Desmereces una tecnología madura que ya ha demostrado de lo que es capaz, DLSS, y hablas de una que todavía ni existe, y quieres que la mencionemos. Muy sensato, y muy imparcial por tu parte (nótese la ironía).

    «»nos guste o no» como por lo visto se permite usar»

    PS5, Xbox Series X y los desarrolladores están apostando cada vez más por el trazado de rayos, nos guste o no. Es pura realidad, si no te gusta el problema lo tienes tú, no yo.

    «Luego pasarán los años y como es habitual sobrarán artículos en los que se usará el DLSS y los primeros pasos del trazado de rayos como algo de lo que reírse y ridiculizar»

    No hay por dónde coger esto. Todos los avances tecnológicos que se han logrado hasta el momento en el sector gráfico deben ser debidamente contextualizados para apreciar su valor en el momento en el que salieron, no ridiculizados comparándolos con estándares actuales. Que disparate, de verdad.

    En fin, un saludo.

  • asteam

    El Raytraicing va ser la norma cuando lleguen a las tarjetas gamas media (cosa que esta pasando en la actual generacion de graficas de nvidia) y que que sea implementado en una buena cantidad de video juegos, no solo implementar el trazado de rayos porque si, si no que este no sea un impacto a la hora del rendiento de la grafica, la mayoria que estamos aqui sabemos que las gamas altas son la manera de las empresas sacar musculo y mostar el potencial de sus tecnologias pero para la mayoria de los usuarios no vamos a disfrutar de esta tecnologia a como no lo estan promocionando.
    Saludos

  • Adrián Ramón Plá

    https://youtu.be/eiShcFHPBMo
    De ésto no se habla? Cuando una corporación (sea cual sea) toma estas medidas absurdas, se tiene que hablar y discutir… no salir a defender por el solo echo de regalar los productos para el test… lamentable, sobretodo una compañía que hace años está tranquila en el sector de gpus a nivel competitivo, ventas y popularidad…

  • BorreguitosLerele

    Se te olvidó mencionar, solo apto para pudientes.
    El resto del 95% del mundo gamer usará AMD tanto en consolas como en gráficas AMD de gama media.
    Ahora las de gama alta de AMD han pisado los talones en una primera toma de contacto y demostrado que no van de farol comp van los de Nvidia.
    Vendiendote lo ultimo por 800€ y al año siguiente obsoleto para el 4K o reescalamos con DLSS.
    Si eso ves que es la evolución, creo que estas un poco ciego y dentro de ese 5% de gente que hace mucho ruido.
    Parar ya, no engañais a nadie.
    Nvidia era lo mejor hasta las GTX 980. Desde entonces no han mejorado en nada, y encima cada año subida de precio. Y ahora que si han bajado con respexto el año anterior es una ganga. Como tragais de verdad. Pero enterita os la tragais🥱. Aburris.
    El DLSS es lo mejor que tiene Nvidia y fijate que es justamente un “apaño” para compensar rendimiento a algo que esta en pañales.
    Osea esta mejor diseñado el parche que la aplicación en sí.
    No puedes defender eso en la vida… por eso sigue y seguirá en pañales.

  • Benito Camelas

    A mí me gustan las AMD por el soporte de sus drivers, de nada sirve tener un cañón si luego no eres capaz de cargarle la pólvora xD

    Pero sin duda que no vaya bien el trazado de rayos puede ser un punto muy despenalizante a la hora de recomendar una gráfica AMD a un amigo que se monte un PC para jugar.

    Desde luego las noticias sobre AMD apuntaban alto y casi parecía que habían superado a nvidia en esta generación, pero bueno si de verdad conoces AMD sabes que siempre acaban un paso por detrás en potencia bruta con respecto a Intel o Nvidia, aún que por lo que entiendo en esta generación AMD y Nvidia están a la par o AMD supera a Nvidia por un poco más de rendimiento (?)

    Lo cual es bueno por que al haber esta rivalidad entre dos empresas (que al final no es que nos vayan a dar dividendos a los clientes… que alguno comenta como si fuera accionista de una de las dos xD)
    Pues con esta rivalidad al final podemos decir que «añada» de gráficas nos ha salido buena, por que las dos parecen haberse superado a si mismas.

    Lo bueno que ahora ya por fin sé en qué flojea AMD con respecto a NVIDIA el trazado de rayos y eso a falta de que lleguen las gráficas a los consumidores (por que ahí si que veremos de todo tipo de pruebas xD), pues es algo que te hace plantearte la pregunta de si realmente los necesitas, en mi caso siendo usuario de Linux y no jugando a triple A (me gustaría, pero sé que me viciaría por horas al día con lo absorbentes que son xD) pues me decantaría por comprar una AMD por que se que a largo plazo el soporte será bueno y que la única penalización sería no tener un trazado de rallos decente.

    Este artículo me parece imparcial argumentan con detalles técnicos y hasta aclaran que no han podido probrar el producto por la falta de stock, quién realmente sea fan de AMD sabrá que siempre estaremos «un pasito atrás» en cuanto a tecnología, pero que al menos se ve reflejado en un precio menor y ahora con un mejor soporte de sus drivers, el resto me parece controversia de críos inmaduros que no quieren escuchar nada negativo sobre lo que les gusta.

    Quizás en 2021 el trazado de rayos sea una «pijada» pero igual en 2025 podrá ser la norma en los juegos triple A, habrá otras gráficas AMD y Nvidia, pero como usuario de linux yo sé que sin problemas de drivers, llegaré a 2025 con la gráfica AMD que me compre xD pero vamos, llegaré «cojeando» sin el trazado de rayos en cuanto a lo que a juegos se refiere.

    Eso si, me queda la duda que sin fijarnos en el trazado de rayos, este año AMD ha igualado a Nvidia? yo tengo la sensación de que sí, pero me gustaría saberlo, ya que de momento el trazado de rayos para mí es un extra opcional, los que tenemos una gforce de la serie 600M (vamos sus 8 añitos ya) desde luego quedamos flipados con todo lo que han avanzado las gráficas xD

    PD: Viendo el vídeo me pregunto si para 2025 las gráficas se conectarán desde fuera de la torre como si de un colector de aire de un muscle car se tratara, ¿¿No os parecen obscenamente grandes?? xD

    https://fotos.subefotos.com/277f6f56f50a50266e6de5f48c62afc5o.jpg

  • Rafael

    Ahora mismo podemos aspirar a 1080p con RT. Lo de 4K es para la siguiente generación. A no ser que hablemos de juegos poco exigentes.

  • Sele Asuka

    Nvidia master race

  • Javier Nuñez

    Hay que ver gente retrógrada comentando aquí. Claro que tiene que avanzar el RT pero ya está avanzando poco a poco. Que quieren que saquen gráficas nuevas sin ninguna característica nueva? Todo años con dificultades en la vida pero en dos años cualquier gráfica gama media moverá fácilmente Cyberpunk. Y si actualmente Nvidia tiene mejor rendimiento en RT que AMD pues hay que decirlo ni que fuera mentira. Todas las páginas que han hecho análisis concuerdan con esto. No solamente HU que citan en este artículo.

  • ExplouD™

    y yo como animador 3D te respondo, estas implementaciones dejan bastante que desear ya sea de amd o nvidia pero son necesarias, ya que si se quiere avanzar en un lapso medianamente acotado para que todo se vaya puliendo, aunque ahora no sean mas que anecdóticas ya que no solo hay poca potencia sino que la manera en que esta implementada es bastante mala la verdad, poco realista, todo parece reflejos perfectos de un espejo, nada de defectos, desenfoques o achurados dependiendo de la situación, del material, luz proyectada etc. y no, nvidia no fue la primera que presento esta tecnología en GPUs, fue la primera en implementarlo pero la primera que presento RT en GPUs fue AMD ATI por el 2007 si no recuerdo mal.

  • Maximiliano S. Di Toro

    Te das cuenta que la nota no vale la pena cuando comienza con un » la Radeon RX 6900 XT se veía beneficiada, además, por el «rage mode» y «SAM», dos tecnologías que le ayudaban a conseguir un extra de rendimiento y que le permitirían recortar distancia con la RTX 3090. Era obvio que, con ambas desactivadas y en igualdad de condiciones, la solución gráfica de NVIDIA iba a ser mucho más potente».

  • Maximiliano S. Di Toro

    No, porque NVidia también apoya a MuyComputer y no queremos que se enojen con ellos si no hablan bien de NVidia.

  • Como os la han colado a algunos con el trazado de rayos… que lástima perder el culo por los espejos como charcos y los suelos encerados xD. Eso si, NVIDIA frotándose las manos… que cuando quieran que la secta pase por caja de nuevo, aumentan los requisitos de los títulos clave (solo tienen que meter pasta a la desarrolladora y ahí tenéis a Cyberpunk por ejemplo) y entrenar el algoritmo del flamante reescalado un poco peor (para quienes se agarran a DLSS, es NVIDIA la que entrena la IA y ellos deciden la «calidad» del algoritmo final que se aplica).

    Y que no se queje ningún medio sponsorizado de esto, que si no los vetan y dejan de mandarles GPU… aunque a algunos no hace falta ni tenerlos de sponsors para tenerlos en palmitas por lo que se puede ver xDDD

  • Samash112

    Spanish nvidia haters… Keep crying. I will continue to enjoy my 3090. Kisses

  • kidark

    GL troll

Lo más leído