Web Analytics
Conecta con nosotros

A Fondo

AMD Radeon RX 6900 XT, Radeon RX 6800 XT y Radeon RX 6800: especificaciones y precios

Publicado el
Radeon RX 6900 XT

Hoy era el día marcado para la presentación de la nueva arquitectura RDNA 2, y AMD no ha defraudado. La compañía de Sunnyvale ha mostrado, al detalle, las nuevas Radeon RX 6900 XT, Radeon RX 6800 XT y Radeon RX 6800, tres tarjetas gráficas con las que AMD hará frente a las RTX 3090, RTX 3080 y RTX 3070 de NVIDIA.

La arquitectura RDNA 2 marca un salto importante en términos de arquitectura frente a la arquitectura RDNA de primera generación. Los cambios introducidos a nivel de silicio se han traducido en una mejora de la relación rendimiento por vatio consumido del 54%, manteniendo el proceso de fabricación de 7 nm de TSMC que vimos en las RX 5700.

AMD Radeon RX 6900 XT, Radeon RX 6800 XT y Radeon RX 6800: especificaciones y precios 29

Entre las novedades más importantes que ha introducido AMD podemos destacar el rediseño de los pipeline (tuberías de renderizado), las mejoras en los procesos de movimiento de datos y la introducción de la tan rumoreada «Infinity Cache». Mención especial merece esta última, ya que ha permitido a AMD paliar el problema que supone unir un bus de 256 bits con memorias GDDR6 a 14 GHz en tarjetas gráficas de nueva generación de gama alta.

Como sabrán muchos de nuestros lectores, NVIDIA ha utilizado buses de 384 bits y de 320 bits en las RTX 3090 y RTX 3080, además de memoria GDDR6X, que alcanzan frecuencias de hasta 19,5 GHz. Para compensar esa diferencia de ancho de banda, AMD se ha inspirado en la enorme caché de los Ryzen 5000, basados en Zen 3, y ha integrado un total de 128 MB de memoria caché en las Radeon RX 6900 XT, Radeon RX 6800 XT y Radeon RX 6800.

Radeon RX 6900 XT eficiencia

La idea no es nueva, estoy seguro de que muchos de nuestros lectores recordarán que Xbox One y Xbox One S cuentan con 128 MB de memoria esRAM que actúa de una manera similar a la caché infinita que ha integrado AMD en las Radeon RX 6000. Su función es exactamente la misma, compensar el pobre ancho de banda que tienen ambas consolas debido a la combinación de memoria unificada DDR3 con un bus de 128 bits.

Viendo las pruebas de rendimiento que ha publicado AMD parece que esta idea ha funcionado a la perfección, pero durante todo el evento se han limitado a hablar de valores máximos con APIs «óptimas», y no han profundizado en los resultados de rendimiento todo lo que me habría gustado, así que prefiero esperar a ver pruebas que recojan valores medios con una perspectiva más realista.

AMD Radeon RX 6900 XT, Radeon RX 6800 XT y Radeon RX 6800: especificaciones y precios 32

AMD ha conseguido afinar al máximo las frecuencias de trabajo con la arquitectura RDNA 2, ya que ha superado sin problemas la barrera de los 2 GHz, y esto ha permitido mejorar considerablemente el rendimiento final de las Radeon RX 6900 XT, Radeon RX 6800 XT y Radeon RX 6800, aunque sobre ello vamos a profundizar en el siguiente apartado.

Por lo que respecta a las mejoras a nivel de plataforma, AMD ha dado un salto muy importante que se agrupa alrededor de las siguientes claves:

AMD Radeon RX 6900 XT, Radeon RX 6800 XT y Radeon RX 6800: especificaciones y precios 34

  • Soporte total de DirectX 12 Ultimate: algo que ya os adelantamos en informaciones anteriores, y que se extiende a todo el conjunto de APIs de Microsoft, desde DXR 1.1 (trazado de rayos) hasta Direct Storage, que permitirá un aprovechamiento óptimo de los SSDs de alto rendimiento basados en el estándar PCIE y en el protocolo NVMe.
  • Tecnología de reducción de latencia: vinculada a la tecnología FreeSync de AMD, cuyo objetivo es mejorar la experiencia de uso al reducir el retardo hasta en un 37%.
  • «Smart Access Memory» y «Rage Mode»: que permiten dar un impulso al rendimiento mejorando la integración y la relación de trabajo entre una CPU Ryzen y una GPU Radeon RX 6000, y aplicando un overclock directo y agresivo con un solo clic. Dependiendo de cada juego, podemos ver una mejora de entre un 4% y un 13%.

AMD Radeon RX 6900 XT, Radeon RX 6800 XT y Radeon RX 6800: especificaciones y precios 36 AMD Radeon RX 6900 XT, Radeon RX 6800 XT y Radeon RX 6800: especificaciones y precios 38

AMD vuelve a competir en lo más alto con la Radeon RX 6900 XT

Ha sido, sin duda, la mejor noticia de la tarde. Vuelve a haber competencia en todos los niveles, y eso es positivo para todos los usuarios, ya que significa que AMD ha logrado intercambiar golpes con NVIDIA en lo más alto, gracias a la Radeon RX 6900 XT, una tarjeta gráfica que no logra superar a la RTX 3090, pero que desde luego queda muy cerca de ella, y que ofrece un valor precio-prestaciones más atractivo.

AMD Radeon RX 6900 XT, Radeon RX 6800 XT y Radeon RX 6800: especificaciones y precios 40

La Radeon RX 6900 XT posiciona en lo más alto, y justo por debajo de ella queda la Radeon RTX 6800 XT, una tarjeta gráfica que compite con la GeForce RTX 3080 y que ofrece un rendimiento similar a esta. Todavía no estoy totalmente convencido de que logre superarla de verdad, pero juega en su liga y ha quedado un poco por encima de mis expectativas iniciales. Obvia decir que me alegro de ello, ya que como siempre digo representa más competencia, y esto siempre es bueno para nosotros, los consumidores.

AMD Radeon RX 6900 XT, Radeon RX 6800 XT y Radeon RX 6800: especificaciones y precios 42AMD Radeon RX 6900 XT, Radeon RX 6800 XT y Radeon RX 6800: especificaciones y precios 44

Con todo, no quiero dejarme llevar por el entusiasmo, y como he dicho prefiero esperar a ver cómo se comportan estas tarjetas gráficas en pruebas de rendimiento independientes con valores medios durante sesiones de juego realistas y sostenidas en el tiempo. No me entendáis mal, AMD ha superado mis expectativas y esto es genial, pero al final lo importante son los valores medios y quiero ver cómo se comportan, sobre todo por las dudas que me ha dejado el concepto de la caché infinita.

AMD Radeon RX 6900 XT, Radeon RX 6800 XT y Radeon RX 6800: especificaciones y precios 46

Echando un vistazo a la Radeon RX 6800 nos encontramos con una tarjeta gráfica de gama alta económica que promete un rendimiento muy interesante, ya que compite con la GeForce RTX 3070 de NVIDIA. AMD ha manteniendo la estrategia y ha ofrecido unas comparativas de rendimiento escuetas y poco claras, pero a priori parece que supera a la solución de NVIDIA.

AMD Radeon RX 6900 XT, Radeon RX 6800 XT y Radeon RX 6800: especificaciones y precios 48

Sin más preámbulos, vamos a ver las especificaciones, los precios y las fechas de lanzamiento de estas nuevas tarjetas gráficas. Al final se han cumplido, como podréis ver, casi todas las claves que vimos en este artículo.

Radeon RX 6900 XT

Radeon RX 6900 XT

  • Núcleo gráfico Navi 21 XTX en 7 nm.
  • 80 CUs activas con 5.120 shaders a 2.015 MHz-2.250 MHz, modo normal y turbo.
  • 320 unidades de texturizado.
  • 80 unidades para trazado de rayos.
  • 128 unidades de rasterizado.
  • Bus de 256 bits.
  • 16 GB de memoria GDDR6 y 128 MB de caché infinita.
  • TBP de 300 vatios.
  • Necesitará una fuente de 700 vatios y dos conectores de 8 pines.
  • Precio: 999 dólares, unos 1.099 euros al cambio.

AMD Radeon RX 6900 XT, Radeon RX 6800 XT y Radeon RX 6800: especificaciones y precios 51

Esta tarjeta gráfica estará disponible a partir del 8 de diciembre con un precio de 999 dólares. No conocemos el precio de venta en España, pero al incluir impuestos superará los 1.000 euros.

Radeon RX 6800 XT

AMD Radeon RX 6900 XT, Radeon RX 6800 XT y Radeon RX 6800: especificaciones y precios 53

  • Núcleo gráfico Navi 21 XT en 7 nm.
  • 72 CUs activas con 4.608 shaders a 2.015 MHz-2.250 MHz, modo normal y turbo.
  • 288 unidades de texturizado.
  • 72 unidades para trazado de rayos.
  • 128 unidades de rasterizado.
  • Bus de 256 bits.
  • 16 GB de memoria GDDR6 y 128 MB de caché infinita.
  • TBP de 300 vatios.
  • Requiere una fuente de 700 vatios y dos conectores de 8 pines.
  • Precio: 649 dólares, unos 699-729 euros al cambio.

AMD Radeon RX 6900 XT, Radeon RX 6800 XT y Radeon RX 6800: especificaciones y precios 55

Estará disponible a partir del 18 de noviembre con un precio de 649 dólares. En España su precio, impuestos incluidos, debería rondar los 699 euros.

Radeon RX 6800

AMD Radeon RX 6900 XT, Radeon RX 6800 XT y Radeon RX 6800: especificaciones y precios 57

  • Núcleo gráfico Navi 21 XL en 7 nm.
  • 60 CUs activas con 3.840 shaders a 1.815 MHz-2.105 MHz, modo normal y turbo.
  • 240 unidades de texturizado.
  • 60 unidades para trazado de rayos.
  • 96 unidades de rasterizado.
  • Bus de 256 bits.
  • 16 GB de memoria GDDR6 y 128 MB de caché infinita.
  • TBP de 250 vatios.
  • Necesita una fuente de 600 vatios y dos conectores de 8 pines.
  • Precio: 579 dólares, entre 599 y 629 euros al cambio.

Su lanzamiento se producirá también el 18 de noviembre, y tendrá un precio de 579 dólares. Su precio en España, tras aplicar impuestos, debería situarse entre los 599 y los 629 euros.

AMD Radeon RX 6900 XT, Radeon RX 6800 XT y Radeon RX 6800: especificaciones y precios 59

¿Y qué hay del trazado de rayos?

AMD ha confirmado su apuesta por el trazado de rayos al hablar de la integración total con DirectX 12 Ultimate, pero no ha profundizando en nada, es decir, no ha explicado cómo han integrado la aceleración de trazado de rayos por hardware en las RX 6000, y tampoco ha entrado a hablar de rendimiento.

Como recordarán nuestros lectores habituales, gracias a Microsoft, que hizo un desglose del SoC de Xbox Series X, supimos que la arquitectura RDNA 2 acelera el trazado de rayos por hardware recurriendo a una integración con las unidades de textura, dando forma a un sistema de recursos compartidos que limita notablemente el rendimiento.

AMD Radeon RX 6900 XT, Radeon RX 6800 XT y Radeon RX 6800: especificaciones y precios 61

El hecho de que AMD no haya querido profundizar en esta cuestión no es un buen síntoma, de hecho creo que refuerza lo que hemos ido diciendo durante los últimos meses, y es que la potencia en trazado de rayos de las Radeon RX 6000 podría estar muy por detrás de lo que vimos en las RTX serie 20. ¿Esto es negativo? Depende de la evolución que vaya a tener el trazado de rayos en los próximos años, pero ahora mismo, no.

A título personal reitero que AMD ha superado mis expectativas. Las Radeon RX 6000 prometen un rendimiento por encima de lo previsto inicialmente (destaca especialmente la Radeon RX 6900 XT en este sentido), vienen con 16 GB de memoria gráfica incluso en sus versiones más «económicas», y tienen un precio bastante ajustado. Veremos, eso sí, cómo se desenvuelven en pruebas independientes, ya que las comparativas de rendimiento que ha ofrecido AMD han sido demasiado planas, tanto que ni siquiera han dado números concretos al hablar de los resultados de las RTX 3090, RTX 3080 y RTX 3070.

Editor de la publicación on-line líder en audiencia dentro de la información tecnológica para profesionales. Al día de todas las tecnologías que pueden marcar tendencia en la industria.

59 comentarios
  • Gregorio Ros

    Una buena noticia, algo se olía Nvidia cuando redujo tanto el precio de sus gráficas, que bueno es tener competencia en el mercado. En el artículo me surgen dos dudas, una de ellas es la llamada «cache infinita», ya veremos lo que es para llamarla así, pero si el resultado equivale a una cache pues fenomenal. La segunda duda es sobre las memorias GDDR6 a 14GHz, ya lo he leído un par de veces por lo que supongo que no es una errata, ¿A tanta frecuencia están ya las memorias?. Así a ojo esa frecuencia es una longitud de onda de unos 5 centimetros, parece demasiado para un bus, ¿Es pues una frecuencia interna de la memoria y el bus tiene otra?. Ya espero la comparativa entre las series de AMD y Nvidia, trazado de rayos aparte parece que hay vida otra vez en el sector.

  • Dark Sephiroth

    Isidro, después de ver que la 6800 de 13’9 TFLOPS supera claramente a la 2080Ti, ¿sigues pensando que no andabas desencaminado al decir que la Xbox Series X equivale a una 2070 y la PS5 a una 2060?

  • Luis Dario

    Unos critican que no mostraban equivalentes al DSLS de nVIDIA, pero si resulta que no necesita trucos para obtener rendimeinto con esa IA. Si no es resolucion nativa sin nada de filtros seria fenomenal pero falta ver que pasa

  • Isidro Ros

    Lo primero que he hecho ha sido actualizar el artículo al que te refieres:

    https://www.muycomputer.com/2020/10/22/la-gpu-de-ps5-es-una-radeon-rx-6700/

    Sigo pensando que Xbox Series X no tiene una GPU al nivel de la RX 6800 porque sus especificaciones lo dejan muy claro, la 6800 tiene más shaders y más frecuencia de trabajo en modo turbo.

    Xbox Series X debería estar, probablemente, al nivel de una RTX 2070 Super-RTX 2080.

    En este caso he errado el tiro, y por muy poco, ya que yo la situaba al nivel de una RX 5700 XT en el mejor de los casos:

    «Pues bien, dado que la GPU de Xbox Series X va a estar por debajo de la Radeon RX 6800, resulta sensato pensar en que aquella ofrecerá un rendimiento igual, o ligeramente superior, al de la RTX 2070. Puede que incluso llegue al nivel de una RX 5700 XT que, os recuerdo, es más potente que la RTX 2070, pero no va a estar al nivel de una RTX 2080 Ti».

    De todos modos, prudencia. Me chirría mucho que AMD no haya dado números de rendimiento de NVIDIA en las gráficas, y que haya pasado por completo del rendimiento en trazado de rayos.

    Sin embargo, el problema no es que yo me equivoque en una predicción. El problema es que una horda de fans vea cualquier valoración o análisis técnico bien fundado como una crítica porque no les guste, o porque creían que una consola de 500 euros iba a estar al nivel de un PC de 1.500 euros.

    Saludos.

  • Isidro Ros

    AMD no concreto frecuencias Gregorio, pero la GDDR6 funciona entre los 14 GHz y los 16 GHz.

    No te sorprendas, NVIDIA utiliza buses de 384 bits con memorias GDDR6X a 19,5 GHz 🙂

    ¡Saludos!

  • Oli V. Mora
  • Dark Sephiroth

    Sí, la Xbox series X (12 TFLOPS, para no entrar en CU’s y Mhz) estará un 13’66% por debajo de la 6800, que a priori se parece a la ventaja que saca a la 2080Ti. Personalmente creo que el rendimiento bruto de la Series X quedará equiparado a la 2080Ti/3070, pero es difícil hilar tan fino y podría quedar por debajo. A la PS5 la veo al nivel de una 2070 Super. También será emocionante ver cómo implementan las optimizaciones de la nueva API como el variable rate shading y otros elementos personalizados de las consolas y PC en futuros juegos.

    Sobre las hordas de fans, a mí me baneaste y borraste todos mis comentarios y no sentí que hubiera faltado al respeto más allá de argumentar. Quizás fui vehemente, y en eso pido perdón pero reconozco que me da rabia ver un artículo de un medio digital se equivoca (cosa que puede pasar) y en lugar de rectificar insiste en que tiene razón y silencia la crítica (o da esa impresión).

    Errar es de humanos y ya está, mi consejo es que no te enzarces ni te lo tomes de manera personal, tienes que estar por encima como redactor/moderador aunque puedo entender que sea difícil en la situación actual. Reitero mis disculpas por la cuenta que me trae y a disfrutar del gaming y las noticias de tecnología. Yo lo máximo que puedo jugar últimamente es a la PS3 o con GeforceNow, así que ya te imaginarás lo fanboy que puedo ser de unos o de otros.

    Un abrazo.

  • Adrián Ramón Plá

    AMD dijo que está trabajando en algo parecido al DLSS de Nvidia, pero yo creo que hasta que AMD no coloque núcleos tensor en sus gpus (ahora lo puede hacer gracias a la compra de Xilinx), AMD va a estar un paso atrás en el tema de IA, pero creo que en futuras Radeon eso puede cambiar…

  • Diana Wolf

    Isidro, todo esto contradice tus articulos con predicciones de rendimiento y precio.

    Saludos! <3

  • Diana Wolf

    Isidro, tu error creo que fue pensar que seria igual que siempre, pero amd solo demuestra musculo cuando sale nueva generacion de consolas.
    No es necesario que seas fan de nvidia en tu trabajo.

  • Diana Wolf

    suerte Isidro <3 la necesitaras

  • Casper

    Al parecer quien engaño a nvidia fue amd, no al revés, pero que se espera de una noticia amarillista que se dijo con anterioridad

  • DAVID SALSERO

    Sí lo dijeron, lo dijeron 10 veces durante la presentación y lo pusieron en 2 diapositivas.

    AMD También tienen DirectX ML (re-escalado de imagen con Inteligencia Artificial). compitiendo con Nvidia
    «RTX» y «DLSS» sólo es el nombre comercial de Nvidia a dichas tecnologías. Es como: no dijeron que tiene Gsync. No, tiene Freesync, que es lo mismo.

  • DAVID SALSERO

    +++++1

  • DAVID SALSERO

    SE HA DICHO EN TODOS LOS FOROS.
    Sí lo dijeron, lo dijeron 10 veces durante la presentación y lo pusieron en 2 diapositivas.
    También tienen DirectX ML (re-escalado de imagen con Inteligencia Artificial).
    «RTX» y «DLSS» sólo es el nombre comercial de Nvidia a dichas tecnologías. Es como: no dijeron que tiene Gsync. No, tiene Freesync, que es lo mismo.

  • Isidro Ros

    Extraído literalmente del artículo:

    «Ha quedado un poco por encima de mis expectativas iniciales. Obvia decir que me alegro de ello, ya que como siempre digo representa más competencia, y esto siempre es bueno para nosotros, los consumidores».

    Extraído del otro artículo:

    «Antes de terminar os recuerdo que todos los datos que hemos visto se basan en filtraciones bastante fiables y en un análisis comparativo que parte de informaciones oficiales anteriores, y que incluye, además, una estimación objetiva basada en mis propios conocimientos.

    Cabe la posibilidad de que las especificaciones y los precios difieran, pero creo que incluso en caso de que así sea las diferencias serán mínimas. Como siempre, estaremos atentos al evento del 28 de octubre para contaros todas las novedades de la serie Radeon RX 6000»

    Saludos.

  • Isidro Ros

    Ya he tenido bastante suerte en la vida, no necesito más, pero gracias por preocuparte 🙂

    Saludos.

  • Gregorio Ros

    Tienen que estar los chips muy cerca del procesador, a esa frecuencia cualquier trozo de pista entre chips se transforma en una antena. Es el principal problema por el que no se aumenta la frecuencia, otra cuestión es que se usen dos frecuencias, una para el bus y otra para funcionar internamente. Esa es mi duda pues a 19 GHz ya nos metemos en un par de centímetros de longitud de onda. Con fibra optica p.e. por lo menos no está el problema de la emisión/recepción, que genera las interferencias, solamente queda el retardo de las distancias.

  • Isidro Ros

    «El hecho de que AMD no haya querido profundizar en esta cuestión no es un buen síntoma, de hecho creo que refuerza lo que hemos ido diciendo durante los últimos meses, y es que la potencia en trazado de rayos de las Radeon RX 6000 podría estar muy por detrás de lo que vimos en las RTX serie 20. ¿Esto es negativo? Depende de la evolución que vaya a tener el trazado de rayos en los próximos años, pero ahora mismo, no».

    «A título personal reitero que AMD ha superado mis expectativas. Las Radeon RX 6000 prometen un rendimiento por encima de lo previsto inicialmente (destaca especialmente la Radeon RX 6900 XT en este sentido), vienen con 16 GB de memoria gráfica incluso en sus versiones más «económicas», y tienen un precio bastante ajustado».

    Saludos.

  • Diana Wolf

    La estimación objetiva…
    No vi ninguna otra web que se ponga a especular precios ni rendimiento, eso ya me dice que poco serios tus artículos.

    De todas maneras la competencia es buena para todos <3

    Entiendo que nvidia desde hace 7 años viene invicta, y evidentemente eso nublo tu estimacion objetiva.

    No te preocupes, tus artículos se nota que tienen mucho amor y de los mejores en español.

    Un error lo tiene cualquiera, lo importante es lo que viene!!

    Saludos al staff de muycomputer! <3

  • DAVID SALSERO

    l raytracing de Nvidia funciona gracias a DirectX 12, concretamente gracias a DXR (Direct X Ray Tracing).

    La diferencia es que Nvidia ejecuta el raytracing mediante núcleos RT dedicados, que no hacen nada más que calcular el trazado de rayos. Ese trabajo, en gráficas AMD, lo hacen los TMU. Posiblemente algo inferior inapreciable al ojo humano, pero en Rendimiento le ha dado una paliza a Nvidia.

    Lo PEOR es que defendéis a Nvidia con menos Vram, PRECIOS MAS CAROS y aun encima os sacan las versiones Ti, BURLANDOSE de los miles de personas q han comprado anticipadamente. Ya habéis tragado suficiente la pasada generación con las Super.
    No se puede ser mas ciego ver que AMD se ha puesto al Nivel de Nvidia impensable hace solo 3 años que estaba hundida.
    LA lucha entre David y Goliat siendo David=AMD Goliat=Nvidia

  • Jir

    Ese favoritismo es un problema cuando llega el momento de ser imparcial.

    Aquí se especulo mucho sobre el rendimiento y el precio. Fue como otra pagina que leí hace tiempo donde hacían menos a los procesadores AMD basados en Zen 3 y le dieron con todo a intel(y sus +++++ jaja). La verdad nadie se lo esperaba, pero nunca hay que subestimar.

  • Isidro Ros

    Yo no defiendo a NVIDIA, simplemente digo lo que veo, y lo que no veo.

    No he visto pruebas de rendimiento con trazado de rayos, ni números concretos en los benchmarks donde aparecía NVIDIA, y lo digo.

    «no hacen nada más que calcular el trazado de rayos»

    Lo dices como si fuese fácil, ¿tienes idea de lo que supone esto en términos de carga de trabajo? Muchísimo, tanto como para hacer que un juego de hace décadas (Quake 2 RTX) pueda tumbar a una GPU tope de gama actual.

    Como dije en el artículo, quedo a la espera de ver el rendimiento en trazado de rayos, y me alegro mucho de que AMD haya superado todas mis previsiones ;).

    Saludos.

  • asteam

    para quienes sea realmente relevante trazado de rayos tienen opcion segura con las RTX, pero fuera de eso esta carrera de GPU’s esta muy reñida, pero la verdad es que es mejor de esta manera ya la rivaildad de estos ultimos años entre AMD y INTEL para esta generacion esta siendo aburrida lo interensante vas hacer los prosimos años AMD vs NVIDIA

  • HHORMIGA

    ¡Excelente articulo! Bien explicada la presentacion de la arquitectura RDNA 2 con las graficas RX 6000 de AMD. Me interesan mas las graficas de gama media-baja, pero siempre estar enterado de estas graficas que dan prestigio, valor, publicidad y ventas a las compañias. Puro poder estas «supergraficas.»

  • DAVID SALSERO

    Lo que parece claro es que AMD ha presentado unos productos muy majos. Y si la tecnología Infinity Caché funciona como parece, así como el One Click Overclocking o la Smart Memory Access, tiene un argumento perfecto para atraer a potenciales compradores de Intel y NVIDIA.

    Si esta tecnología se lleva a los portátiles, es más que probable que veamos un aluvión de equipos portátiles gaming totalmente equipados con tecnología de AMD. Infinity Caché pinta bien en escenarios portátiles donde el ahorro de energía es esencial, aunque habrá que esperar a que lleguen los procesadores Zen 3 a los laptops para ver si es factible tal escenario.

  • Eva

    Yo flipo con los Trolls disfrazados de ingenieros de sofá que hay por aquí.

    Isidro dejo unas especificaciones que se han cumplido casi por completo, y hasta los precios son muy parecidos, salvando la 6900 xt, que ha sido un sorpreson.

    No se de dónde se ha escapado está cuadrilla, pero me dan hasta pena.

    Pasa Isidro, sigue dando la información como llevas años haciendo, con ese toque único que tanto nos gusta.

    Abrazo

  • Diana Wolf

    Hace un excelente trabajo Isidro, pero se animo a mucho al especular rendimiento y precio.
    Ninguna otra web de tecnología lo hizo, y precisamente porque no había información oficial.

    De todas maneras se lo quiere, un error lo tiene cualquiera <3

  • Harry el Sucio Potter 😀

  • Dark Sephiroth

    Otra vez con lo de «ingenieros de sofá». Se puede ser abogado, como Isidro o como yo, y estar al tanto de la tecnología como hobby y por diversas fuentes.

    Cierto que un error lo tiene cualquiera y que algunos comentarios son desagradables rozando lo troll. Pero tampoco hay que irse al extremo de aplaudir aciertos donde no los hay. Se asume con humildad y se pasa página, punto. Si te reafirmas y presumes, pierdes credibilidad y aumentan las críticas (algunas de ellas desgraciadamente troll, sí).

  • Dark Sephiroth

    Cierto, como dice la noticia habrá que ver el Raytracing de AMD (mucho peor salvo sorpresón) pero qué bien ver que hay competencia. La pregunta sería: ¿es suficiente rendir igual por 50€ menos cuando Nvidia tiene DLSS, mejor Raytracing y fama de mejores drivers? A ver cómo evoluciona en los próximos meses y cuando saquen GPU’s de gama media (las que costaban 200€ antes de la fiebre de las criptomonedas y RTX y ahora cerca de 400€). Intel también entrará competir con su próxima GPU en unos meses, si no hay retrasos o cancelaciones.

  • MatZarC

    Pero siempre especificó que esto era solo especulación, nunca dijo lo contrario.
    En cuanto a estas tarjetas amd, solo decir AMD HA VUELTO.

  • MatZarC

    Insisto, poruqe hablan de error? si siempre se hablo de especulación, y es obvio que no estará 100% acertado.
    Creo que estan «meando fuera del tiesto».

  • Dark Sephiroth

    Te respondo y dejo el tema, pues ya está aclarado y pasado.

    El error no fueron los desaciertos como tal (como estimar que la PS5 rendiría como la 2060 y la Xbox Series X como la 2070). Al fin y al cabo, hacer predicciones en agosto era arriesgado, aunque ya había bastantes indicios. Fue más el usar frases excesivamente tajantes y valorativas como: «También se dijo en su momento que la GPU de Xbox Series X iba a estar al nivel de una RTX 2080 Ti, o incluso por encima, algo que, obviamente, tampoco es cierto. Pensar que AMD iba a poder embutir una GPU con ese nivel de rendimiento en una APU era una auténtica locura, como también lo era pensar que podríamos ver una consola con esa potencia con un precio «razonable».»

    La semana pasada, con los últimos rumores ya más fiables de RDNA2, daba la impresión de alardear de acierto insistiendo en la anterior predicción. Hubo comentarios críticos en buen plan y en mal plan y, a mi parecer, se enzarzó demasiado y a mí me baneó injustamente.

    Con los datos de ayer de la 6800, ya podemos ver que la Xbox se queda si no al nivel de la 2080Ti, al menos muy muy cerca, sin contar las futuras optimizaciones propias de RDNA2 y DirectX 12 Ultimate. Pero eso es lo de menos, el error fue más la actitud (aunque muchos comentarios no los aplaudo y entiendo que se pueda perder la paciencia). Por lo demás, borrón y cuenta nueva.

  • Bribon

    Ya te digo
    Una cosa. Cuando salgan a la venta habrá stock o se agotarán también.
    Espero que AMD se de cuenta y no venda 100 a un solo cliente. Si es que piensan en clientes o solo en captar clientes al estilo Nvidia, Microsoft…

  • Julio

    Te curras mucho los artículos, pero pecas de opinar e ir siempre con el mas fuerte y esta vez te equivocaste, AMD a engañado a todo el mundo, otra vez, como hizo con Ryzen.
    Pero sobre todo es bueno que haya competencia.
    El raytracing no es relevante en los juegos, pero Bueno se ha puesto de moda y seguirá adelante, yo me alegro pero sigue estando muy en pañales como para decir que Nvidia es superior solo por eso.
    Los juegos y en definitiva toda aplicación que use gràficas a tope no solo se basa en una tecnología.
    Chao

  • jmml10382

    En las gráficas se muestra superior la rx 6900xt a la 3090

  • Casper

    Amd les mostro una carta de recomendaciones para ese tipo de incidencias a las tiendas, para que no pase lo mismo que paso con nvidia y se los terminen llevando los bots, ya de la tienda corresponde si sigue o no las recomendaciones que dió AMD

  • Omar

    Claro, Lo importante es que este redactor siga haciendo su trabajo, pero nosotros estamos para dar nuestra opinión y creo que el mismo también se ha dado cuenta y aprendido cosas al igual que nosotros con el.
    Aquí nadie tiene la verdad cuando se hablan de rumores y filtraciones, pero dar información mezclada con Su opinión es lo que le ha marcado.
    Lo que dicen muchos por aquí que quiten el Disqus pero eso sería incluso peor para esta revista.
    Si eres periodista de verdad debes ser imparcial en el texto, y dar tu opinión en los comentarios.
    Es una idea 😉

    Saludo

  • La pregunta real de todo esto es… ¿podrás comprar esa NVIDIA «mejor» que solo vale 50€ más a corto plazo?.

    Es mejor rendir un poco menos por un poco menos de dinero, que no rendir nada porque no hay existencias… eso es el clavo ardiendo principal (aparte de su gran rendimiento, que de cumplirse como dicen es sorprendente) al que van a acudir muchos compradores, siempre que AMD no cometa el mismo error con el stock y tenga unos controladores decentes iniciales. Lo del stock es posible que no suceda, ya que el nodo de 7nm de TSMC se produce como churros y la GDDR6 igual (a diferencia de la GDDR6X de esas RTX 3000 y su nodo de Samsung no tan «refinado).

    Sin contar el cachondeo de NVIDIA y la VRAM, una tarjeta que con 10GB de VRAM para 4K… un disparo en el pie bastante curioso, pero bueno eso no lo valoran muchos usuarios.

  • DirectML y VulkanML si este último coge fuerza e implementación en el mercado.

  • Benito Camelas

    Bueno, siempre estaba preguntando caules serían las gráficas «top» de amd para portátil, que no tenía ni idea de las nomenclaturas (me perdía y creía que Vega era la versión portátil xD)

    Resulta que son como las de sobremesa pero terminadas en M, creo que todavía no lanzaron la nueva generación para portátiles, pero bueno estaré pendiente a las noticias que salgan de las futuras (supongo que saldrán…) AMD Radeon RX6000M , no encontré la serie 6000 en la web oficial de amd, pero bueno una muestra de lo que se puede conseguir en cuanto a gráficas amd para portátil (de la serie que ya está quedando obsoleta la RX5000M):

    https://www.amd.com/es/graphics/amd-radeon-rx-5000-notebooks

    Cada día estoy más cerca de mi portátil con procesador y gráfica de amd, seguramente caiga cuando saquen las nuevas rx6000M 🙂

    A ver si en un futuro cuando se sepa algo o las lancen hacen un análisis tan bueno como este, este tipo de artículos me ayudan mucho a ponerme al día, me encanta cuando dan datos y bien contrastados, ahí se nota la profesionalidad de muycomputer.

    Buen artículo 🙂

  • Dark Sephiroth

    Pues sí, la VRAM, el consumo y sobre todo los stock actuales son las bazas con las que puede jugar AMD. También es posible que a largo plazo se vean algo beneficiadas si los desarrolladores toman de base de desarrollo la RDNA2 de Xbox Series (y pseudo-RDNA2 de PS5).

  • Leonidas

    El peor artículo que he visto en mucho tiempo, se compara demasiado con lo mostrado por Nvidia, demasiada dependencia por el Trazado de rayos, el cual AMD a tenido que meter con calzador porque esta de moda pero todos sabemos que esta en pañales y que ahora mismo no merece la pena. Ya que las mejoras sustanciales son mínimas y dependen demasiado de la gama alta.
    Si veis los requisitos de call of duty cold war, son de risa, ósea que necesito para jugar de forma optima descargar 80GB extra solo para el trazado de rayos y usar una RTX 3090, ósea para jugar a un juego 1500€ venga ya hombre….
    El articulo lo dicho parece que trabajas en Nvidia, como si te fuera la vida en ello, no te fías de los resultados, te compadeces de las pruebas y te quedas sorprendidito. Hipocrita..
    Prefiero una consola que cuesta como las peores de la gama alta y encima se puede jugar en 4K reescalados como con el DLSS y las 2060 super, quien se compre esto debe estar muy mal.
    Las de AMD estan bien por precio pero solo veo merece la pena 6800 xt, aún así todavía quedan un par de generaciones para que se democratice esta tecnología y llegue a la gama media/baja.

  • Marianito

    Peca de compadecerse del rival de su queridísima Nvidia. La cual AMD nunca a necesitado de la gama alta para comeptir y vender millones, con quedarse en la gama media y media/alta le ha bastado.
    Pero Nvidia cuando veía que venía AMD con gama Alta Nvidia respondía rescatando una tecnología que se iba a poner de moda. RT. Pero necesitaba un apoyo en software para ponerla al día hasta que madure, el DLSS.
    Esto a entrado por los ojos a muchoa que les a encantado y el dlss no es mas que reescalado inteligente que no deja de ser jugar en 4K pero en realidad juegas en fullhd o peor, comp en las consolas de anterior generacion. Que tanto se criticó.
    Si le damos una vuelta, Nvidia a estado defendiendose de AMD desde las rtx 2000 incluso variando precios de forma espectacular para defenderse aún mas.
    No tienen donde meterse. AMD esta haciendo las cosas bien y es bueno para todos pero Nvidia mira demasiado por su beneficio y monopolio. Y eso le quita atractivo. Prefiero AMD, sin duda y sobre todo las consolas que van a llevar el trazado de rayos al poder adquisitivo medio/bajo.
    Aunque sigo insistiendo en que no todo es Raytracing, la nueva generación de videojuegos usan muchas nuevas tecnologías que ofrecen buenos argumentos para que los desarrolladores las aporvechen, si es que quieren o prefieren tirar de rendimiento bruto con las de Nvidia que parece facilitar su labor.
    Veo mucha dejadez.

  • Jose Leon Leiva

    yo si e visto ya precios en otra web y es ma bajo que en esta dice que la 6800 costara 500 euros

  • Tychus Findlay

    Está genial que AMD vuelva a competir en la gama alta pero el precio de la 6900XT es de chiste, te cobran 350€ por activarte 8CUs en el chip de la 6800XT…

    Por otro lado AMD ha sido un tanto «opaca» a la hora de mostrar las comparativas de rendimiento al habilitar funciones adicionales en todas sus tarjetas.

    Pienso que los precios no están del todo ajustados y sería mucho más interesante ver una 6800 a 500€ y una 6800XT a 600€ (como se rumoreaba inicialmente).
    Por 50€ más tienes mejor RT, funciones de IA y posiblemente mejor rendimiento en general (aunque sea poco más), por lo que la 6800XT no es del todo competitiva vs la 3080 y con la 6800 vs la 3070 sucede algo similar al rendir un poco más la 6800 pero costando 80€ más.

    El único aliciente son los 16GB de VRAM pero ahora mismo no se les da uso alguno en juegos.

    La pena de todo esto es que al estar la 6900XT a 1000€, Nvidia pedirá como muy poco 900€ por la 3080Ti y otra vez tendremos precios altos sin justificación alguna.

    Cuando salgan las reviews con comparativas más imparciales y justas veremos donde queda cada modelo.

    Sin duda esta siendo un final de año muy interesante en lo que respecta al hardware informático 🙂

  • Tychus Findlay

    Es increíble lo profundo que ha calado el marketing de AMD, lo más triste es que la gente llega a pensar que la 6800XT rinde más que la 3080, pese a que durante la presentación oficial de AMD solo tres juegos de los 10 mostrados superaron a la 3080 en la única diapositiva donde AMD no habilito en su tarjeta funciones adicionales, es muy triste que overclocken sus tarjetas durante una presentación oficial y más triste aún que la gente pique el anzuelo…

    No detallaron su arquitectura, no mostraron datos sobre el RT y su posible alternativa al DLSS no deja de ser una implementación sin hardware dedicado.

    Lo peor de todo es que los escasos 50€ de diferencia entre la 6800XT y la 3080, parecen ser decisivos a la hora de valorar todo lo que ofrece una tarjeta y la otra, lo cuál es ridículo tratandose de dos tarjetas de más de 600€.

    En fin la ignorancia es la felicidad y parece que hay tantos perjuicios hacía Nvidia por subir precios (cosa que ya esta haciendo AMD en todos sus productos) que nubla la objetiva valoración de cada modelo según sus prestaciones y precio.

    Los 16GB de VRAM están muy bien pero ahora mismo no se utilizan en juegos…

  • Tychus Findlay

    Que te hace pensar que habrá stock de las RX6000?, si hace semanas que se agotaron todas las unidades disponibles de las nuevas consolas…

    Has visto algún juego que vaya peor en una tarjeta de 10GB que en una de 16GB??

    Porque yo no y tiene pinta que seguiremos así un par de años más 😉

    Ya salió la Radeon VII con 16GB y quedo un 10% por detrás de la 2080 a 4k que tiene 8GB y un ancho de banda muy inferior.

    No se porque pero me huele que la 6800XT consumirá lo mismo o más que la 3080 xDD

  • Moreno

    Esta claro que Nvidia lleva la delantera en cuanto al raytraxing, tecnología que esta iniciandose en los videojuegos y que no podemos defender una gráfica solo por esa tecnología al igual que el DLSS, esta muy bien pero aunque no nos guste es un parche para que mejoren los fps con RT activo.
    AMD es verdad que el precio de la gama alta se ha venido arriba pero en potencia bruta, sin dlss es muy competitiva y ya conocemos a AMD y los drivers van mejorando con los años.
    Los gigas que tienen las de Nvidia son los justos y necesarios, pero al año que viene ya no serán tan atractivas las de 8GB aunque la rtx 3080 si, con 10gb si que puede aguantar bien el paso del tiempo. Solo hay que mirar a las consolas, pero si optimizan los juegos para 12gb en consola, ya sabemos que los ssd de ps5 se usara como complemento a la RAM. Para PC siempre se necesita algo mas, para 2 años tendrás que cambiarla y no cuesta 820€, cuesta 900 y esperate que consigas una.
    AMD mientras tenga stock va a ser la gran triunfadora.

  • Me hace pensar que habrá bastante más disponibilidad de lo que tiene NVIDIA, es pura lógica. Solamente por utilizar un nodo maduro de 7nm de TSMC que tiene una gran tasa de unidades funcionales por oblea porque es un nodo ya maduro y muy probado, contra lo que tiene NVIDIA con Samsung… ya hay un buen trecho. Luego el utilizar la abundante y disponible GDDR6 de varios fabricantes como ha utilizado AMD, paliando la diferencia de GD6X a nivel de silicio en la caché L3, vs GDDR6X que solo fabrica Micron a día de hoy exclusivamente para NVIDIA y escasea… pues saca las conclusiones que te parezcan, pero pinta bastante a favor de AMD.

    Las consolas utilizan un SoC personalizado, no producen un silicio único como si se hace para toda una gama de GPU o CPU, que una vez hecho el silicio principal, cortan para hacer todas las gamas inferiores. El aprovechamiento que se obtiene de un silicio utilizado para todas las gamas es mucho mayor que el que se obtiene con un SoC personalizado, es decir más unidades disponibles para todo el mercado.

    No lo he visto en la pasada porque apenas hemos contado con novedades gráficas… pero a medio/largo plazo lo veremos en esta, trazado de rayos en más títulos, texturas con más detalle, tarjetas gráficas más preparadas para correr en 4K harán que el problema sea más visible de lo que ha sido la anterior, sobretodo al meterle 10GB de VRAM.

    No se lo que te dura una tarjeta gráfica como una RTX 3080, pero de pagar algo así y escatimar en memoria VRAM que te fuerce a plantear el cambio en la siguiente generación… muy mal.

    Churras y merinas, mezclas potencia de la Radeon VII con la memoria VRAM que hereda de la gama profesional y el ancho de banda, que tiene que ver, pero que mayormente es irrelevante en su caso.

    Te lo he explicado parcialmente atrás distinguiendo la anterior generación con la actual, pero te lo voy a explicar de nuevo con un concepto más sencillo, que lo mismo así atajamos el problema.

    La VII fue un error para juegos, es una GPU basada en arquitectura Vega (GCN que tiene muchos años a sus espaldas como sabrás «imagino») que proviene de una Mi50 (profesional) recortada. De esta ha heredado la memoria VRAM HBM2E y esa cantidad ingente de memoria no necesaria en su salida, porque en principio fue diseñada para ser una GPU de computo pero ese año AMD iba de culo y sin frenos haciendo el bobo y la portó al mercado de juegos.
    Mucha memoria para una resolución donde no era mayoritaria (no se jugaba mucho en 4K, porque para moverlo dignamente se necesita mucho hardware) y donde el RayTracing apenas se estaba implementando.

    Hasta una 5700XT con 8GB de VRAM se merienda a la VII en muchos escenarios porque es una GPU de computo portada malamente a un mercado donde no funciona como debe, eso si si vas a comprar una de esas Radeon VII no bajan de 500€ a día de hoy, porque todos los usuarios de Apple se matan por una por esa VRAM que tiene y la fuerza de computo en FP64 donde no nada de NVIDIA a nivel «gamming» ni ningún precedente de AMD en el mismo mercado tienen nada que hacer xD.

    Tal vez deberías de mirar a la propia NVIDIA y preguntarte porqué la RTX 3090 tiene más del 50% de RAM que la 3080 con tan solo un 11% de diferencia en rendimiento general.

    Veremos como envejecen las de AMD y las de NVIDIA y por donde va a empezar a petardear cada una según pase el tiempo. AMD en escenarios de trazado de rayos perderá más, pero eso se puede desactivar sin tener que recurrir a «trucos» de reescalados… lo de la memoria VRAM no tiene solución. Bueno si, bajando la resolución o jugar a FPS cinematográficos con buenos petardazos, o rezar para que tu juego preferido utilice DLSS o VulkanML, renderices al a mitad y reescales con suerte.

    A nivel de consumo probablemente queden igual o consuma más la de AMD, ambas generaciones han ido hacia atrás, sobretodo NVIDIA porque AMD ya la mangaba con los consumos desde siempre xD.

    También se decía que esas 6800XT no iban a pasar de una RTX 3070 y en algunos escenarios parece que se meriendan a una RTX 3090 por casi 1000€ menos xDDDD, así que consuma 20W más en carga no creo que sea lo que le quite el sueño a sus compradores, creo yo… tal vez a los fanáticos del color verde se agarren a los 20W, porque de todo hay en la viña del señor xD.

    Lo veremos dentro de poco 🙂

  • Tychus Findlay

    Me parece que no conoces bien a AMD, y menos aún sabes interpretar las presentaciones que hacen, ya sean de consolas, GPUs, CPUs, ect…

    Si quieres creerte el cuento de la lechera allá tú, ya ya se como se las gastan cada uno 😉

    10GB de VRAM es más que suficiente ahora mismo y posiblemente hasta dentro de dos años, con lo cual a mi me vale.

    La 3090 es la sustituta de la Titan, sin más, ya lo dejo claro Nvidia pero vamos puedes hacer las cábalas que quieras.

    Por otro lado cuando los 16GB sean tan necesarios como los 8GB de hoy las RX6000 estarán obsoletas, por lo que no esta tan clara su utilidad a largo plazo, como siempre ha pasado con el tema de la cantidad de VRAM, los modelos que se adelantan a su tiempo y llevan más de la cuenta no acaban aprovechandola bien y al final es poco más que el típico truco publicitario.

    No tienes que explicarme nada, conozco perfectamente como va, te comparo dos tarjetas de similar rendimiento y época para que veas lo útil que le ha sido a la Radeon VII disponer de más cantidad de memoria, AMD vendía los 16GB de VRAM como imprescindibles para jugar a 4k y ya ves lo que ha pasado,
    obsoleta al cabo de un año y sin mejoras de drivers para una de las tarjetas más caras que ha sacado AMD, así que no me vengas con las típicas excusas de que es solo para el uso profesional que aquí nos interesa principalmente el rendimiento en juegos.

    Si de verdad quieres creerte a pies juntillas toda la propaganda de AMD bien por ti, pero vamos ya te darás cuenta de tu ignorancia (a menos que seas el típico fan de una marca) cuando salgan las primeras reviews.
    Lo dicho por 50€ la 3080 es mucho mejor propuesta ahora mismo que la 6800XT.
    El que quira pagar un poco menos por tener bastante menos a la espera de que le sean de utilidad esos 6GB de VRAM extra o bien esperar a que los drivers de AMD maduren y pueda superar a la 3080 en un par de años cuando Nvidia saque una nueva arquitectura, es libre de hacerlo.
    La competencia es buena para todos los precios «menos» competitivos que ha puesto AMD en comparación a los que tenían las RX5700, no lo es.

  • ¿No te gustaron mis argumentos para decantarme por la apuesta de que AMD tendrá bastante más stock que NVIDIA?, te has quedado mudo con el argumento en este punto, veo que apuestas a que tengo razón y no te sale reconocerlo xD.

    No lo conozco no… he tenido un porrón de gráficas y CPU de ellos, al igual que de NVIDIA y CPUs de Intel, pero no conozco nada… Okei. (solo con ver que andas por ElChaNepesInformatiko y la fecha de la cuenta, me huelo lo que eres. He estado allí desde 2012, se que os adoctrinan bien a decir tonterías xD).

    No me lo creo porque me lo digan, lo he vivido yo mismo que he tenido y tengo de todo desde hace bastantes años.

    Eso es lo que te ha enseñado NVIDIA, a que «parezcan» obsoletas antes de tiempo. A día de hoy tienes muchos usuarios jugando con una RX470 y RX480 de 8GB, las de 4GB se ahogan en algunos escenarios en 1080p, cuando en su salida «eran suficientes». Me ocurrió a mi precisamente con una R9 Fury, de no tener 4GB de VRAM la conservaría para el PC secundario porque rendía a nivel de una RX 470 y por contra la sustituí por una 1070Ti por la falta de VRAM.

    Que dentro de unos años no se pueda jugar en «Ultra» y eso para ti sea una GPU obsoleta, no quiere decir que para la gran mayoría sea así. Mucha gente no busca que se vea la calva del personaje en los charcos, aunque este de moda. Además, la GPU no se utiliza solo para jugar.

    No sabes como va, estás hablando de dos tarjetas «de similar rendimiento» y no, para nada. Una arquitectura como GCN 5.x contra Turing… si te da

    La 5700XT por ejemplo no salió con más de 8GB de VRAM y salió posterior a Radeon VII, por lo que te dije en la anterior respuesta… eran Mi50 que sacaron en el mercado doméstico porque no tenían RDNA lista, por no pasar el año en blanco mientras rondaba Turing, cortaron a láser para que no canibalizara del todo a las Mi50 y las metieron en el mercado «gamming» porque AMD no tenía nada que sacar xD. Una chapuza no lo voy a negar, pero no hay excusas que valgan con la memoria. Era una tarjeta profesional que se vendió como «gamming» y heredó esa memoria de las GPU profesionales, incluso dejaron parte de las unidades FP64 para hacerlas atractivas por eso se le dejo los 16GB de VRAM también, era un caramelo para los diseñadores. A la vista está que dio resultado, porque hay pocas pero las que hay se venden muy caras, para ser tan malas en «gamming», no porque se necesitara 16GB de VRAM en ese momento. Que tu te creas el marketing al pie de la letra sin saber informarte de lo que compras y en que momento, no es culpa de AMD.

    La necesidad de ya no 16GB de VRAM… si no más de 10GB es evidente. Esta generación la pasará bien, la siguiente lo pasará mal… si compras una RTX 3060 pues da igual, quien pague por una RTX 3080 para que tenga problemas en la siguiente generación… pues malo, a no ser que vaya a cambiar, que cada día hay más elementos de este tipo y es respetable, pero yo no lo concibo. No pago una gama alta para cambiarla a los dos años.

    ¿No hay mejoras de drivers?, si hasta una Vega 64 tiene mejoras de drivers a día de hoy xDDD. Incluso añadieron el Sharpening, Low Latency y demás incluso a Vega 64 xD.

    https://uploads.disquscdn.com/images/57563c825998eced1c4e002d4eb9db0d47c7e50b47eca7789d9d4aabe6d6ed6b.jpg

    Puedes consultar las pruebas en el post del autor, que ha hecho un curro que te cagas para tirar tu teoría por tierra. https://foro.noticias3d.com/vbulletin/showthread.php?t=459253
    El último pega una caída buena, pero de media hasta una Vega 64 sigue mejorando por drivers a día de hoy… no lo hace una Radeon VII que es la misma arquitectura según tu xD. Y perdona, yo no te he llamado ignorante, que me lo parezcas o no ya lo he visto desde el principio, pero desde todo el respeto del mundo me lo he callado y discuto tus argumentos con datos, no con insultos ;).

    No está tan clara su utilidad, por eso NVIDIA quería sacar versiones de 20/16GB de VRAM que han cancelado a última hora, porque no están poco nerviosos de pillarse las manos a medio plazo de la que se les venía encima xD. Y apuesto a que se darán prisa en adelantar la próxima generación, o verás las Ti y Super pronto con más VRAM, al tiempo.

    Yo personalmente, si esa RTX 3080 tuviese stock y alguien decide comprarla, le diría que es muy buena opción y no me decantaría por ninguna en concreto, para 4K apostaría más por la 6800XT pero para cualquier otra resolución inferior, por la RTX 3080 (de haber stock, que no habrá holgadamente hasta el 1Q de 2021).

    A mi la experiencia me dice que esas RX 6800 XT envejecerán mucho mejor (como casi todas las AMD hasta ahora), que habrá stock desde el principio y a lo mejor alguien paga 50€ menos por tener algo menos al principio, pero por lo menos lo tendrá desde que los pague y no con un retraso de hasta un mes xD y que por una vez (que ya era hora), saldrán decentes mediante drivers en su salida, algo a lo que AMD no acostumbra nunca y eso es algo que han hecho mal para su imagen.

    Los precios «menos» competitivos. Ahora AMD saca una tarjeta que rinde como la competencia por 350€ menos (RTX 3090 vs 6900XT) y te la tienen que regalar porque es AMD. Anda ya, ¿que tienes 10 años?. Da gracias que seguramente haya un stock decente y no se agoten al minuto, con una cola de espera de un mes después de pagar xD. Y todo esto para que luego tengan problemas con los condensadores y te toque una unidad que no aguante ni las frecuencias stock xDDD. En fin.

  • Tychus Findlay

    Pues para tener «tanta» experiencia en el mundillo eres bastante ignorante en las cosas más importantes…

    Parece que aún no te has dado cuenta de que las presentación oficiales de los fabricantes son para «vender» su producto, lo mismo que la 3080 no rinde el doble que la 2080, la 6800XT no rinde lo mismo que la 3080, y menos aún sin OC ni smart access (exclusivo de los Ryzen 5000 por cierto), típica práctica que haría Intel xDD

    Comparar la 6900XT con la 3090 es bastante estúpido pero entiendo que es un buen truco de marketing y que con eso se la «cuelan» a sus fieles seguidores^^

    Pagar 350€ por activarte 8Cus en el chip de la 6800XT es de chiste.

    Parece que tampoco entiendes que TSMC está por encima de sus posibilidades y no da a basto con todos los pedidos que ya tiene (bastante más importantes que la serie RX6000 por cierto), si a eso le sumas que AMD ya esta enviando «recomendaciones» a distribuidores y minoristas de no vender más de dos unidades por cliente y que se utilicen medidas contra bots para evitar la reventa, da a entender que mucho stock no habrá, no hay que ser muy «listo» para darse cuenta de la situation que hay actualmente, si las RX6000 y los Ryzen 5000 duran más de un día a la venta ya será algo inédito.

    Ya he tenido muchas flagship de AMD para saber lo que hay, cierto es que está vez han conseguido sorprender y ponerse al mismo nivel que Nvidia en lo que a potencia bruta se refiere pero han perdido parte de esa buena relación rendimiento/precio que han tenido estos últimos años.

    Una 6800 a 500€ aunque fuese con 8 GB de VRAM hubiese sido una excelente opción y una 6800XT a 600€ lo mismo.

    Veremos como queda situado cada modelo pero si en la presentación oficial de AMD, de los 10 juegos mostrados la 6800XT solo superó a la 3080 en tres juegos y no por mucho, da lugar bastante incertidumbre, por eso mismo tuvieron que recurrir a realizar comparativas con OC+SA y así hacer ver lo que no es.

    El RT ni lo mencionaron…

    Lo dicho por 50€ no merece la pena a menos que quieras conservar la misma GPU durante más de 2 o 3 años.

    En un par de semanas quedará todo mucho más claro 😉

  • No me voy a rebajar con alguien que solo insulta cuando lo meten con el palo en la boca, eso te lo has aprendido de la otra cuadra de trolls en la que vives, incluso tal vez me conozcas de allí hace tiempo porque yo siempre he usado este nick… las cuentas medianamente recientes que pasan en ese sitio 24/7 cantan mucho y la tuya no iba a ser menos xD.

    Insultar cuando no hay argumentos para debatir si que es de ignorantes, sobretodo cuando a uno le tocan la marca favorita ¿no?. Para mi que me parezcas algo peor a un ignorante y no te lo diga de primeras, ni siquiera insinuado… ya vale mucho más. Compra lo que quieras y disfrútalo, sea de la marca que sea, es tu dinero no el mio. La realidad está ahí aunque te duela.

    Un saludo.

  • Tychus Findlay

    Será mejor que su «majestad» no se rebaje a hablar con la «plebe» XD

    Se ve que aparte de ignorante en estos temas tampoco tienes un nivel muy alto en comprensión lectora, ya deberías de saber que todos somos ignorantes en muchas cosas y que ese adjetivo no es un insulto, pero vamos que esperar de una persona que se come todo el «humo» de una marca en una presentación de un producto que aún no tiene valoraciones imparciales…

    Siento que te moleste pero parece que aún te queda mucho que aprender sobre el hardware informático y como se desenvuelve este mundillo.

    La realidad es la dicten los análisis imparciales, no lo que muestre una empresa que vende un producto para obtener el máximo beneficio.

    No es tan difícil de entender, pasa lo mismo con Nvidia e Intel.

    La primera la vamos a tener con los Ryzen 5000 dentro de unos días, cuando la gente se de cuenta de que el 5900X estará a la par en gaming comparado con el 10900K (puede que haya un 3-5% de diferencia de media en el mejor de los casos) o que su rendimiento multihilo quedará lejos del 19% de incremento que aseguran que tendría gracias al IPC respecto al 3900X, ojalá me equivoque y tenga un 19% de incremento en la media de uso con aplicaciones multihilo pero lo veo complicado visto como AMD no quiso pasar el CineBench en multihilo y que solo hacían hincapié en el rendimiento mono-hilo que a día de hoy no vale para absolutamente nada.

    PD: Aquí el único al que le han metido un «palo» en la boca será a tí, más que nada porque pareces no tener el conocimiento suficiente para dialogar sobre este tema, eso o eres fiel seguidor de una marca en concreto 😉

  • https://disruptivekernel.com/2020/11/manifestacion-del-gran-error-de-ampere/
    Disfrútalo crack. En tu cuadra de «expertos» favorita también han publicado la noticia. No llores mucho anda. No hay más que decir por mi parte, no das para más que insultar.
    Saludos

  • Tychus Findlay

    Jajaj, mira que eres noob, disfruta tú de este artículo donde se ve claramente que con 8GB es más que suficiente para jugar a 4k con ajustes en ultra y texturas HD:

    https://www.techpowerup.com/review/watch-dogs-legion-benchmark-test-performance-analysis/6.html

    También hay una revisión por parte de Guru3D 😉

    En el análisis se puede ver lo poco optimizado que esta el uso de VRAM en las tarjetas de AMD, siendo superada ampliamente la 5600XT por la obsoleta 1060 de 3GB.

    También puedes ver como la 3070 rinde por encima de la 2080Ti en 4k pese a tener 3 GB menos de VRAM, teniendo en cuenta que es un juego sandbox con un mapeado enorme y muchos elementos en pantalla (eso sin mencionar el Raytracing), deja claro que por ahora es suficiente con 8GB de VRAM, por lo menos si tienes una Nvidia xDDDD

    Todo lo demás es puro marketing que la gente ignorante da por cierto sin haber comprobado de primera mano si realmente es así o quieren vendernos «humo».

    Hay muchas pruebas de ello, como el Flight Simulator 2020, que pese a ser el juego que más VRAM consume actualmente va perfectamente en tarjetas de 8GB a 4k y con settings al máximo.

    Ale a disfrutar mañana de las reviews de la serie Ryzen 5000 😉

  • Dark Sephiroth

    Bueno, pues tengo que comerme parte de mis palabras. El valor de 13’9 TFLOPS de la 6800 no lo calculé yo sino que lo tomé de una página fiable como AnandTech. Ahora descubro que necesariamente ese valor lo calcularon por algún motivo con la frecuencia Base, porque con la frecuencia Boost los TFLOPS de la 6800 son 16’17.

    Claramente hay una importante diferencia entre los 12’1 TFLOPS de la APU de Xbox y los 16’17 de la Radeon 6800, ambas con la misma arquitectura RDNA2. Si la 6800 de AMD saca de media un 15% de ventaja a la 2080Ti según los benchmarks, esto quiere decir que la Xbox Series X no está al nivel de una 2080Ti en rendimiento bruto, sino un 10-15% por debajo, o sea parecido a una 2080 Super.

    ¿Quiere esto decir que la distancia de la Xbox Series X con la 2080Ti es insalvable? No, ya que los TFLOPS de la Xbox son constantes, no Boost, y la situación para RDNA2 sólo puede mejorar con drivers y futuros juegos que se optimicen desde el principio para el streaming del SSD, entre otras características de la arquitectura RDNA2, la API DX12 Ultimate y la consola en particular. A modo de ejemplo, los gráficos conseguidos en GOW o TLOU2 por la PS4 con una grafica similar a la GTX 750Ti y sin SSD ni una CPU potente detrás. Pero yo hice un cálculo de rendimiento bruto basado en un dato que ha resultado ser erróneo y al César lo que es del César.

Lo más leído