Web Analytics
Conecta con nosotros

Noticias

La Radeon RX 6900 XT tendrá un consumo de hasta 355 vatios, por encima de la RTX 3080

Publicado el
Radeon RX 6900 XT

AMD presentará su arquitectura RDNA 2 el próximo 28 de octubre, y la Radeon RX 6900 XT, basada en el núcleo Navi 21 XT será el modelo tope de gama, es decir, el buque insignia de la compañía de Sunnyvale.

Todavía no se han confirmado sus especificaciones, pero gracias a las filtraciones que se han ido produciendo durante los últimos meses pudimos dar forma a un artículo especial donde os desgranamos las cinco claves más importantes de la arquitectura RDNA 2.

Por lo que respecta a la potencia bruta, AMD aprovechó el evento de presentación de Zen 3 para dejarnos un vistazo previo del rendimiento que ofrecerá la Radeon RX 6900 XT en tres juegos: Gears 5, Borderlands 3 y Call of Duty Modern Warfare 2019. Esos resultados confirmaban lo que habíamos dicho en ocasiones anteriores, que no será más potente que la RTX 3080.

La Radeon RX 6900 XT tendrá un consumo de hasta 355 vatios, por encima de la RTX 3080 30

La Radeon RX 6900 XT podría repetir los errores del pasado

Poniendo en contexto toda la información que he ido viendo durante las últimas semanas tengo claro que la cosa no pinta del todo bien para la arquitectura RDNA 2. Ojalá me equivoque, pero lo veo poco probable, ya que todo apunta a que las Radeon RX 6000 no van a poder competir ni en potencia bruta ni en eficiencia.

En rasterizado, la Radeon RX 6900 XT debería ofrecer un rendimiento situado a medio camino entre la RTX 3070 y la RTX 3080. Estará más cerca de esta, pero según los últimos datos que ha compartido el siempre fiable Igor´s Lab, la versión de referencia tendrá un TBP (consumo total) de 320 vatios, cifra que subirá hasta los 355 vatios en los modelos personalizados. La RTX 3080 registró en nuestro análisis un consumo medio de 312 vatios, con un pico de 336 vatios.

La conclusión es clara, tenemos un valor de rendimiento por vatio consumido inferior en la Radeon RX 6900 XT, siempre que las informaciones que venimos viendo se confirmen de forma íntegra. Por su parte, la Radeon RX 6800 XT, que estaría basada en el núcleo Navi 21 XL, tendrá un TBP de 290 vatios, una cifra que queda muy por encima de los 220 vatios que registra la RTX 3070. En términos de rendimiento, la alternativa de AMD debería quedar, más o menos, al nivel de la solución de NVIDIA, lo que de nuevo nos dejaría una relación rendimiento por vatio consumido muy pobre.

La Radeon RX 6900 XT tendrá un consumo de hasta 355 vatios, por encima de la RTX 3080 32

RDNA 2 y trazado de rayos: ¿qué podemos esperar?

Es cierto que AMD todavía no ha dado detalles sobre la tecnología que utilizará en las Radeon RX 6000 para acelerar trazado de rayos por hardware, pero gracias a Microsoft, que explicó todas las claves del SoC de Xbox Series X, tenemos una idea bastante clara.

Dicho SoC utiliza una GPU RDNA 2, lo que significa que la tecnología para acelerar trazado de rayos que trae este chip es la misma que veremos en las Radeon RX 6000. Como recordarán nuestros lectores habituales, la GPU Radeon RDNA 2 de Xbox Series X utiliza núcleos dedicados a trazado de rayos integrados en las unidades de texturizado, lo que da forma a una estructura de recursos compartidos en la que ambos no pueden trabajar al mismo tiempo.

Habrá que ver hasta qué punto afecta esto al rendimiento. Ya os dije en su momento, tras ver la demo de Minecraft RTX corriendo sobre Xbox Series X, que me temía lo peor, y como podéis ver no iba desencaminado. De nuevo, espero equivocarme, ya que la competencia es buena para todos, y necesitamos a una AMD fuerte que pueda debilitar el liderato de NVIDIA.

Creo que AMD va a apostar por ofrecer el mejor valor precio-prestaciones, al menos en términos de coste por fotograma, pero va a quedar por detrás de NVIDIA en potencia bruta, en eficiencia y en rendimiento en trazado de rayos.

Editor de la publicación on-line líder en audiencia dentro de la información tecnológica para profesionales. Al día de todas las tecnologías que pueden marcar tendencia en la industria.

40 comentarios
  • Andre Andrade

    Si son ciertos esos números, la 6900xt nació muerta. O tienen que venderla a 100 dólares menos que lo más cercano de la competencia.
    AMD realmente puede hacerlo mejor. Si no hubiera especulado con la competencia y simplemente hubiera desarrollado lo mejor que podía dar, quizás los números serían otros.

  • DAVID SALSERO

    Opino igual pero AMD puede aun mejorar no en esta remesa sino en las futuras puede haber cambios y mejoras en la Arquitectura ya que RDNA2 es muy nuevo aun, hay margen de maniobra y será con RDNA3. De momento Nvidia es aun muy grande y poderosa frente a AMD pero poco a poco se esta igualando y espero que en algun momento la supere. Mientras tanto para el jugador medio las Tarjetas AMD son el mejor valor Calidad/precio

  • Alejandro García

    No esperaba mucho más, la verdad. AMD, si ofrece un salto bien medido y ajustando el precio, seguirá siendo una alternativa excelente en la gama media, que no está mal para un amplisimo arco de usuarios jugones. Quien pueda acceder a tarjetas de 700 € (y más), tendrán a nVidia disponible, enhorabuena. Sí espero que AMD corrija los consumos y calentones.

  • Alejandro J. Zambrana

    ¿Esta confirmado que era la RX 6900 XT lo que se mostro en la presentación de Zen 3 ???

  • espectro

    Considerando que la serie 5000 no llegaba a dar más que una 2070, siempre hay una mejoría. Los que esperaban que le ganara a la 3080/90 estaban demasiado ilusionados.

  • MatZarC

    Para el publico de gama media, que quieres una tarjeta calidad/precio decente, y corra juegos 2k sin problemas. Esta a años luz del rendimiento de las nvidia, pero para el usuario normal será una gran tarjeta.

  • Tychus Findlay

    Ah si?
    Te dice algo la 1660S a 200€ ?

  • Tychus Findlay

    Por eso mismo ya habia rumores hace meses de que costaria entre 550 y 600€ (RX6900 de 16GB)

  • Jideu

    No, la 1660 super cuesta 230€ la mas barata, aunque ha tenido buenos precios bajos, la única a 205€ fué la de zotac que precisamente no era la mejor opción en cuanto a temperaturas, sonoridad etc.
    La gama media para 1080p es clara ganadora la RX 580/590 desde 140€/180€ y en 1440p la RX 5600 XT 279€ le da un repaso a las 1660 llegando al rendimiento de las 2060 KO y RX 5700 330€

    Ahora viene una buena competencia buena entre gráficas de gama media con trazado de rayos y AMD debería costar en todos los casos menos que Nvidia por la “peor” implementación en esta tecnología, que sabemos tienen 4 juegos pero será la norma a partir de ahora.

    Sin duda parece que si AMD no la supera en potencia bruta, ya ha nacido muerta, es una mierda.
    Las mismas opiniones que escucho y leo sobre la ps5 en comparación con la xbox y lo mismo entre consolas y PC, de borregos esta el mundo lleno.
    La gama media es la mejor forma de disfrutar, como las consolas y solo si hay una mala implementación merecerá la pena la potencia bruta, pero estamos pagando por alguien que no ha echo bien su trabajo.
    Vease red dead redemption 2..

    Salidos

  • Tychus Findlay

    Te suena Coolmod?
    Pues eso, pagar de 80€ a 100€ más para obtener un 20% más de rendimiento no está mal pero en ningún caso es mejor en relación rendimiento/precio que la 1660S (1660S vs 5600XT).

    Sobre la 580 de 8 GB a 140€ mejor no hablo porque entre lo que consume y que su precio real es de unos 180€ (no 140€) pues no la considero una opción.

    Si de verdad crees que el RDR2 o juegos con una carga gráfica similar no van bien en las tarjetas de gama media por falta de optimización es que no tienes mucha idea del tema.

    La 5500XT desde que salió es la peor tarjeta de gama media por su relación precio/rendimiento, así que AMD perdió el único tramo donde era fuerte, la gama media-baja, de ahí que su cuota de mercado haya caído bastante desde hace un año.

    Sin duda es una jodienda que AMD no este al nivel de Nvidia, pero por desgracia parece que seguirá siendo así durante bastante tiempo.

    PD: no contemplo precios de tiendas chinas o de importación, ya que es muy arriesgado tratandose de hardware de PC por el tema de las garantías.

  • Jose Pons Toran

    No se sabe nada de la 6900XT. No se sabe cual era la que presentaron. Mil rumores de fuentes dudosas.
    Aquí nada las presentan, entonces sabremos como son de buenas o malas.

    Mi pronóstico es que van a ser más eficientes que las de Nvidia, osea lo contrario a esta noticia. Van a ir a velocidades que superarán los 2Ghz gracias al proceso mejorado de 7nm.
    Solamente que en raytracing y el DLSS de AMD serán inferiores a las de Nvidia. Por lo que los juegos que usen esas tecnologías brillarían más las RTX 30.

    Veremos que sucede si al final la 6900XT es una patata y caliente, o no.

  • Luis10421

    Filtraciones fake llevan saliendo desde hace meses primero decían que las gráficas iban a 1.7GHZ y consumían 150w luego que a 2.2ghz y consumían 255w y ahora que a 2.4Ghz y consumen 350w también decía que tendría 120cu y ahora que no pasan de 80cu también que traerian hbm2 y ahora que Gddr6 AMD no a dicho nada y no hay nada oficial

  • Topito

    Efectivamente. Mejor explicado imposible.
    Hay mucho hype hacía el PC y Nvidia y mucho troll y hater hacia las consolas y AMD.
    Viva la competencia pone en el artículo debajo de toda la noticia “fake” que se cuelgan por aquí los “expertos” de este “revista” online.
    Mas que listos son unos entendidos del mundillo top…

  • RJ69

    Da igual que sea menos potente, mientras sea un buen producto/calidad/Durabilidad actualizaciones/ precio, bienvenidos son.
    a Nvidia le va a pesar que consuman tanto y por eso vienen los haters vestiditos de verde, pero AMD hay que recordar que va a subir las frecuencias al igual que la PS5, con lo cual no cabe duda (para algunos) que consumirán mas con ese pequeño OC al estilo RX 5600XT.

  • Magallo

    Yo creo que te enocionaste y escribes mucho.
    Con que pongas rendimiento PC RDR2 y leeras lo que todo el mundo sabe.

    Las consolas son las primeras en optimizar de buena forma los juegos y aprovechar todos sus recursos.
    Si a esto le unimos que es la primera vez que AMD saca unas consolas personalizadas coincidiendo con una nueva arquitectura RDNA 2, pues se viene un golpetazo en toda regla al PC, porque esta vez si que las consolas son realmente interesantes.
    Por 500€ tienes una consola que rinde igual que una RTx 3070.
    La RX 580 de 4gb o la RX 570 para Full HD, sigue siendo lo mejor por 140€.
    La 1660s es un refrito que se quedará anticuado en breve como les pasó a la gtx1060 que la igualó en rendimiento la mismisima rx 570 con 120w de consumo. Incluso la RX 5500 envejecerá mejor que la 1660s.

    Es que si juegas a QHD, no merece la pena la 1660s, cuesta 230€ y la power color rx 5600 269€ que por 279€ tienes una solución con mejor calidad de refrigeración.

    La 1660s se queda a medio camino entre el fullHD y el QHD.
    Lo unico bueno que tiene es el menor consumo.

    Saludos

  • jmml10382

    Demasiado catastrofista la nota. La cosa no es para tanto. Y más cuando se habla de frecuencias de chip bastante altas en estas nuevas radeon. El consumo sería apenas más alto, no es un valor para tomarlo en contra de radeon cuando nvidia consume y bastante.
    Cuanto a rendimiento, habrá que ver cuál es la radeon primero que presento Su en la presentación de Zen 5000. No se sabe cuál rx6000 es. Podría haber una sorpresa con las gráficas en rendimiento se refiere.
    Otra cosa, qué esperaba el de la nota sobre el rendimiento del ray tracing por hardware en radeon? Un buen desempeño? Es pedir mucho a Radeon.
    Sí espero coherencia y objetividad a la hora de atacar el pobre rendimiento coste beneficio que ofrece Nvidia con Ampere utilizando Rtx y espero objetividad a la hora de hacer una crítica constructiva a Radeon. Son sus primeras gráficas con RT dedicado. No espere conejos en el sombrero. La magia NO EXISTE!

    Salutres

  • Al Bacione

    Venía con las ganas de decir «buen articulo, sigue así» pero veo que es imposible. Las conclusiones que se deslizan son pobres, sobre todo en lo que se refiere a «me temo lo peor» del RT por cómo se gestiona el SoC de Xbox Series X, pero sobre todo cuando menciona «ya dijimos que no sería más potente que 3080» cuando está a 2 fps en el Call of Duty, y por encima en otro que apareció. Siendo AMD Radeon capaz de estrechar distancias con drivers desde siempre. Sólo miren la 5700xt vs 2080Super todo lo que se le ha acercado con ese enorme «gap» de precio que tienen entre ambas.

    Lo dicho: para una publicación seria hace falta redactores con perspectivas para los lectores, que saben que una gpu no es el rendimiento del día de presentación, maxe si es de Radeon. Y otra cosa engorrosa, que el consumo de media de 3080 es 336w cuando es founders edition. Se tuvo que recortar el boost por drivers de las custom por alto consumo (superior a 370w) y crashes.

  • Al Bacione

    No tienes ni pajolera idea. Pásate por los benchmarks actualizados de Hardware Unboxed o canal Benchmark y empieza a mirar precios otra vez… Qué poca idea para tanto blablablá

  • ElGamerAustral

    conclusiones apresuradas modo dios

  • Me encanto los comentarios del tipo «nació muerta». Se ve que todo el mundo dispone de entre 750 €/$ y 1500 €/$ para gastarse en un a RTX30. O como si el grueso de consumidores estuviese ppor la labor de mirar esos +-35w de diferencia, o si en un betchmark hay X puntos de diferencia en resoluciones de 4K para arriba…

  • Tychus Findlay

    Jajaj los fans de AMD cada día me sorprendeis más, como puedes soltar una burrada como esa y quedarte tan agusto??
    Comparas una 3070 con la APU de las nuevas consolas?
    En serio… parece que eres el típico ignorante que piensa que con las optimizaciones de un hardware idéntico al de PC pero cerrado se logran milagros, eso pasaba en la época de los 32, 64 y 128Bits ahora la optimización es bastante menor en consola.

    Luego sueltas la perla de que la 1660S es un refrito, y que crees que es la 580/590? En fin…

    Comprar ahora mismo una tarjeta de 4GB de VRAM es tirar el dinero por muy barata que sea o por mucho que quieras jugar en 1080p…
    Te lo vuelvo a repetir, la 1660S cuesta 205€ en coolmod y la 5600XT está casi en 300€.

    El RDR2 salió a la venta con muchos problemas pero ha ido mejorando bastante con parches, por supuesto no esperes jugarlo a 4k y detalle en Ultra con una tarjeta de 300€, eso no es cuestión de falta de optimización (en las consolas pasa lo mismo), es falta de potencia del hardware.
    S2

  • Tychus Findlay

    Pero de que Benchmarks hablas fan del red team ignorante, pasate tu por TPU y mira reviews antes de soltar chorradas, los precios se miran en España no USA
    Como se nota que a algunos os escueze el bajón de ventas de AMD en la gama media….
    Ni que tuvieseis acciones de la misma….

    Review de hace unas semanas, diferencia del 19% a 2k entre la 1660S y la Asus TUF 5600XT….
    https://www.techpowerup.com/review/asus-radeon-rx-5600-xt-tuf-evo/28.html
    Los últimos drivers de AMD suben el rendimiento en AC Oddysey y poco más pero vamos a ver si te piensas que los drivers de Nvidia no tienen mejoras de rendimiento, que vemos que en dos 2 juegos suben los FPS y damos por hecho que es generalizado.

  • pierrot

    Este es el comentario mas sensato que he leido aqui. Solo falta subrayar razonamiento falaz de «la versión de referencia tendrá un TBP (consumo total) de 320 vatios, cifra que subirá hasta los 355 vatios en los modelos personalizados. La RTX 3080 registró en nuestro análisis un consumo medio de 312 vatios». Si quieres comparar compara cosas equivalentes, asi pues primero haz pruebas de consumo medio de RX 6900, y despues publica el rezultado, tampoco estaria mal decir cual sera TDP de modelos personalizaados de RTX. RTX 3080 tiene el mismo TDP (al menos sobre papel)! me chifla la «objetividad» omnipresente en «Muy»…

  • DAVID SALSERO

    PARA QUIEN QUIERA COMPRAR UN PORTATIL Las comparaciones iniciales de rendimiento del XPS 13 9310 Tiger Lake subrayan por qué Dell debería lanzar un XPS 13 con AMD Ryzen 4000 PARA QUIEN SE QUIERA COMPRAR UN PORTATIL
    https://www.notebookcheck.org/Las-comparaciones-iniciales-de-rendimiento-del-XPS-13-9310-Tiger-Lake-subrayan-por-que-Dell-deberia-lanzar-un-XPS-13-con-AMD-Ryzen-4000.498679.0.html

  • DAVID SALSERO

    Te vas a gastar 1000€ en una 3090 NO ENTONCES.
    PERO si te vas a gastar una tarjeta ADM que cueste 600€ y te sirva para todos los juegos actuales y los que vengan. La mayoria cuentan con tarjetas AMD a no ser que seas de los que juegas 10 horas diarias entonces si una Nvidia, pero para el resto de los mortales AMD va de lujo.

  • Mena

    El que estas ciego eres tu mariposon, sal del armarito verde y azul que tienes como torrePC para que tanto fanatismo.
    Lo que importa es que haya competencia y en la gama media desde hace unos años AMD es la “reina” con algo mas de consumo.
    Es verdad que la 1660s es una buena maquina con bajo consumo pero es una top en FullHD y en QHD es buena en algunos juegos pero no aguanta en todos con buenas tasas de refresco, por eso la mejor opción Top, es la RX 5600 en calidad precio.

    Chao

  • Tychus Findlay

    Otro fan del red team, lo gracioso es que me acusas a mi de fanboy cuando casi seguro he tenido más tarjetas Ati/AMD que tú (unas 11 de generaciones distintas), entre ellas 7 Flagship de la marca, así que ya ves quién es el «fan» aquí…

    Para 1080p la mejor opción es la 1660S por precio y rendimiento, la 5600XT no es muy buena que digamos a 2k y necesitarías pasar a una 5700XT o una 2070.

    Busca un poquito en Google sobre las ventas de cada modelo y verás que hace ya tiempo que AMD no vende más ni en la gama media-baja ni en la gama media pese a tirar los precios, es triste pero así es.

    La falta de competencia es malo para todos pero AMD no hace suficiente para estar a la altura y competir contra dos empresas que por si solas tienen muchos más recursos es increíblemente difícil, con las CPUs lo han conseguido por fin, podrán hacer lo mismo con las GPUs??
    Según los rumores no, a menos que tiren los precios claro.

  • Al Bacione

    Vamos, que no te has pasado por los canales que te dije. Prefieres vivir en la trinchera, en la cuevita oscura…y asumir que los demás somos fanboys con acciones de AMD, jajaj tú mismo campeón

  • Oclord

    El resto de usuarios lo han dejado cristalino, habrá que esperar a ver que sale y cual es su consumo y rendimiento, pero tal y como lo has escrito Isidro parece que la RX 6900 XT va a ser una patata que va a rendir al nivel de una Nvidia GT 1030 cuando no es así, va a estar un poco por debajo de la RTX 3080 lo que no está nada mal con un consumo algo superior, si la ofrecen a un buen precio será mucho mejor opción en calidad-precio-prestaciones que la Nvidia, como ha pasado hasta ahora, con la diferencia de AMD esta vez si va a tener algo con lo que competir con Nvidia en la gama alta, mientras que con la 5700 XT estaba mas enfocado a la gama media-alta, y todo esto que digo es especulando mucho, porque no se sabe que se mostró ni ha salido nada oficialmente.

    Igualmente las RTX 2000 fueron la primera generación con trazado de rayos de Nvidia, y se ha visto con la serie RTX 3000 que había mucho por mejorar, RDNA2 es la primera generación con trazado de rayos de AMD, probablemente será una generación que al igual que las RTX 2000 envejecerá muy mal, por lo que si lo que se busca es el trazado de rayos habría que esperar a RDNA3.

    Que como opinión personal, a mi el trazado de rayos me aporta entre poco o nada, solo quiero una GPU para jugar en FHD (y en un futuro para jugar en 2K y 4K) a 60fps, el resto de pantomimas me aportan entre poco y nada.

  • Isidro Ros

    Creo que he sido muy claro, no la he considerado patata en ningún momento:

    «En rasterizado, la Radeon RX 6900 XT debería ofrecer un rendimiento situado a medio camino entre la RTX 3070 y la RTX 3080. Estará más cerca de esta».

    Si en su momento se criticó el rendimiento en trazado de rayos de las RTX 20 y se puso el grito en el cielo, es justo hacer lo mismo con las RX 6000. Simple objetividad e imparcialidad, con independencia de que te aporte más o menos a título personal

    Y como he dicho, ojalá me equivoque y AMD nos sorprenda con algo tremendo, que falta hace para mejorar la competencia con NVIDIA.

    Saludos.

  • Isidro Ros

    Cuando NVIDIA lanzó las RTX serie 20 todos los fanáticos cerrados de AMD se lanzaron a criticar a muerte. Ahora que las RX 6000 podrían ofrecer un rendimiento en trazado de rayos inferior a las RTX serie 20 no pasa nada, hay que entenderlo.

    NVIDIA lanza una RTX 3080 con un TDP de 320 vatios, de nuevo llueven críticas. La RX 6900 XT podría llegar a los 355 vatios, no pasa nada, los extremos más fanáticos intentan justificarlo hablando mal de la primera con cosas que sí, que son ciertas, pero no deja de ser una excusa.

    Tildáis de falta de objetividad a lo que no os conviene o no os gusta, pero la realidad es que hasta el momento he acertado en casi todo lo que he dicho, incluyendo la integración del hardware de trazado de rayos en las unidades de textura dentro de la arquitectura RDNA 2.

    Cuando salga las Radeon RX 6000 y se confirme su rendimiento y su consumo espero que vengáis también a decirme que tenía razón (o que no la tenía).

    Saludos.

  • Tychus Findlay

    Campeón lo serán tus papas por haber criado a un elemento como tú.
    Primero informarte un poco y mira el análisis que te he pasado yo, después comentas.
    Yo ya he visto los «milagros» de los últimos drivers de AMD y ya te he comentado que no son nada del otro mundo, la diferencia entre la 1660S y la 5600XT es de un 20% a 2k.
    Si el fanatismo ciego no te deja ver la realidad no es problema de nadie, salvo tuyo.
    S2

  • Tychus Findlay

    Triste pero así es, no entiendo a la gente que se obceca con defender a una marca, como si por ello obtuviesen algún privilegio o beneficio.
    El fanatismo es ignorancia pura y dura, sin más.
    Dentro de poco saldremos todos de dudas al ver los primeros análisis de la serie RX6000.
    Por cierto una noticia bien redactada y de fácil comprensión.

  • Isidro Ros

    Exacto, es así de simple.

    Gracias, un saludo!

  • Al Bacione

    Por cada gilipollez que has dicho he visto 3 análisis. Eres un jodido memo hablando del 2k con la 5600XT, de puro retraso mental. Ese es tu problema, que te metes en una trincherita y no hay quien te saque.

  • Jose Pons Toran

    Eso es. Creo que habrán modelos como por ejemplo la rx 6800XT subido de vueltas con un consumo elevado y unos 4 u 8 CUs de más. Luego estará la RX 6800 a menos frecuencias y su consumo será menor que una 3080 sin quedarse demasiado lejos en potencia de ésta.
    Luego estará la 6900XT que como la 3090 estará más para decir que ellos también la tienen grande y para productividat. Tendrá los consumos muy elevados y estará con mucho OC para incluso tal vez superar a la 3090.

    Solo hay que ver la PS5 y Series X, una muestra que las frecuencias podrán pasar de 2 Ghz facilmente y la otra que es una arquitrctura bastante eficiente.
    Los 8nm de Samsung son el punto flaco en esta generación para Nvidia. Por eso creo que se adelantaron tanto en sacar las RTX 30.

  • Adrián Ramón Plá

    Sí, encima en unas gráficas de papel donde no se encuentran por ningún lado, y para colmo, parece que Nvidia va a cancelar los modelos de 20gb de la 3080 y 16gb de la 3070… no pinta nada bien el panorama de gráficas para Nvidia ya a vísperas de las salidas de las nuevas consolas que se van llevar un buen pastel…

  • Daipol

    Hola Isidro.
    Yo llevo tiempo leyendo esta web y os veo muy de agraciados al PC y sobre todo al que tenga la potencia bruta osea Nvidia.
    Hay artículo que los leemos y parecen sacados de las arcas de Nvidia, no voy a explayarme mas.
    Cuando salieron las RTX 20 se las criticó por sacar una tecnología en Pañales. Y claro a su vez con un marketing para engañar a la gente que ya no si quiera para jugar en 4K era valida la 2070 sino la 2080ti, la cual a sido superada ahora por la RTX 3070 costando menos de la mitad.
    Y volvemos a lo mismo. Mucho hardware dedicado a trazado de rayos para jugar a 4 juegos mal optimizados y que claro. No se si intencionado pero ahora la 2080Ti no sirve para el 4K ahora tiene que ser la RTx 3080 o 90.
    Enfin la gente de Poco dinero o que quiere una buena experiencia sin dejarae el sueldo( osea el 80% del mundo GAMER) que se dice pronto, prefiere la gama media, y ahí es donde AMD a sabido coexistir pero claro.
    Las consolas no son suficientemente potentes para el trazado de rayos y optarán por el reescalado. Y se las critica. Al igual que AMD. Y luego resulta que el DLSS por mucha IA. Sigue siendo lo mismo. Y todo para subsanar el LASTRE del Raytracing.
    Para mi y para mucha gente es una tomadura de pelo y preferimos gastarnos 350€ en una RX 5700 XT sin RT o al menos de momento. Que se puede jugar en 4K sin problemas. Y no depender del abuso de Nvidia que por tener tarjetas de gama alta, tengan que ser necesarias para una buena experiencia.
    Eso es lo que criticamos. Para nada somos Fanboys no.
    Somos gente que no podemos pagar la gama alta o que no queremos malgastar por un par de reflejos y 10fps mas.
    No merece la pena. Son solo numeros que a la hora de la verdad no lo vas a notar.
    Como apunte.
    De hecho es mejor jugar en fullHD o QHD a 120hz o 144hz que en 4k y 60hz. Probarlo.
    De momento el 4k 120hz esta caro aunque las consolas en algunos juegos lo soportarán. Efectivamente. Los bien optimizados para las plataformas.

    Saludos

  • Manolito

    Yo si que podría comprar la gama alta de Nvidia no compraba una 3090. Esperaba a ver la RX 6900 o 6800 para que bajen de precio, pero porque quiero probar el raytracing. Y no me importa lo que cueste.
    Para el resto ahora mismo es mejor la gama media. Incluso la anterior gen sin RT.
    Las consolas de nueva generación quien entienda de electrónica avanzada sabrá que la eficiencia es mayor que la que poseen las gráficas de Nvidia.
    Por ejemplo una RTx 3070 ofrece el mismo consumo que la PS5. La cual ofrece el mismo o similar rendimiento gràfico, y gracias a la personalización tendrá una mejor vida útil por la nueva arquitectura.
    No durante muchos años pero si aguantarán bien.
    El trazado de rayos es un lastre para Nvidia que consumen una burrada y AMD se a aprovechado de ello aumentando las frecuencias. Para superar por primera vez a Nvidia, en calidad/precio/potencia.
    En juegos seguirá ganando Nvidia pero AMD es la opción mas interesante aunque pierdas 10fps.

  • Isidro Ros

    Eso es lo que llevo recomendando desde hace tiempo, esperar a ver qué hace AMD, y una vez que conozcamos a las RX 6000 decidir.

    «Por ejemplo una RTx 3070 ofrece el mismo consumo que la PS5. La cual ofrece el mismo o similar rendimiento gráfico».

    No, eso no es cierto. La GPU de PS5 va a estar solo un poco por encima de la RX 6700, ya que tendrá un bus de 256 bits. Es decir, va a estar muy por detrás de una RTX 3070, concretamente al nivel de una RTX 2060.

    Durante estos años hemos vivido importantes avances que al principio, parecían un lastre, pero que al final han acabado marcando el camino a seguir. ¿Te suena T&L?

    AMD lleva varios años siendo una excelente opción calidad-precio, eso es cierto.

    Saludos.

Lo más leído