Web Analytics
Conecta con nosotros

A Fondo

RTX 2070, RTX 2080 y RTX 2080 TI: especificaciones y precios

Publicado el

Hoy es el gran día, NVIDIA va a presentar las RTX 2070, RTX 2080 y RTX 2080 TI, dos tarjetas gráficas de nueva generación basadas en la arquitectura Turing que ya hemos tenido ocasión de ver en artículos anteriores.

El anuncio de las Quadro RTX de nueva generación nos permitió hacernos una idea de las posibles especificaciones que tendrían las RTX 2080 y RTX 2080 TI, y poco después se produjo una filtración por parte de PNY y de GALAX que nos ha confirmado por completo todo lo que podemos esperar de esa nueva generación.

Creemos que no habrá sorpresas, pero vamos a seguir el evento en directo para contaros todo lo que debéis saber de lo nuevo de NVIDIA. A continuación os dejamos un resumen con las especificaciones y precios que fueron confirmados por ambas ensambladoras.

GeForce RTX 2080 Ti

  • GPU TU102 (arquitectura Turing) fabricada en proceso de 12 nm.
  • 4.352 shaders a 1.350 MHz-1.545 MHz, modo normal y turbo.
  • Tecnología NVLINK.
  • 272 unidades de texturizado.
  • 88 unidades de rasterizado.
  • Bus de 352 bits.
  • 11 GB de memoria GDDR6 a 14 GHz efectivos.
  • TDP de 285 vatios.
  • Necesita dos conectores de alimentación de 8 pines.
  • Precio: desde 999 dólares. La Founders Edition cuesta 1.259 euros.

GeForce RTX 2080

  • GPU TU104 (arquitectura Turing) fabricada en proceso de 12 nm.
  • 2.944 shaders a 1.515 MHz-1.710 MHz, modo normal y turbo.
  • 184 unidades de texturizado.
  • 64 unidades de rasterizado.
  • Bus de 256 bits.
  • 8 GB de memoria GDDR6 a 14 GHz efectivos.
  • TDP de hasta 285 vatios.
  • Necesita un conector de alimentación de 8 pines y otro de 6 pines. Hay modelos con dos conectores de 8 pines.
  • Precio: desde 699 dólares. La Founders Edition cuesta 849 euros.

GeForce RTX 2070

  • GPU TU104 (arquitectura Turing) fabricada en proceso de 12 nm.
  • 2.304 shaders a 1.410 MHz-1.710 MHz, modo normal y turbo.
  • 144 unidades de texturizado.
  • 64 unidades de rasterizado.
  • Bus de 256 bits.
  • 8 GB de memoria GDDR6 a 14 GHz efectivos.
  • TDP de 185 vatios.
  • Necesitará como mínimo un conector de alimentación de 8 pines.
  • Precio: desde 499 dólares. La Founders Edition cuesta 639 euros.

El CEO de NVIDIA, Jen-Hsun Huang, ha confirmado la apuesta de la compañía por el trazado de rayos. NVIDIA RTX ha sido definida como una plataforma completa que incluye tanto software (herramientas de desarrollo) como hardware. Lo más interesante en este sentido ha sido su explicación de las ventajas y las desventajas del trazado de rayos y del rasterizado, dos técnicas de renderizado que se han adoptado de forma conjunta para dar forma a un renderizado híbrido que aprovecha el potencial de cada una de ellas.

En el caso de la rasterización destaca por ser capaz de ofrecer un alto nivel de paralelizado, pero tiene problemas a la hora de generar una gran cantidad de efectos de luces y sombras en tiempo real. Lo que conocemos como iluminación global puede ser un gran problema por el consumo de recursos que implica, una cuestión que se resuelve con el trazado de rayos.

Jen-Hsun Huang ha vuelto a hacer referencia a la demostración de Star Wars bajo el Unreal Engine 4 con trazado de rayos y hasta se ha permitido una pequeña broma antes de hablar por fin de Turing, una arquitectura que introduce un nuevo valor en términos de rendimiento: los GigaRays. Una GTX 1080 TI es capaz de generar 1,21 GigaRays por segundo, cifra que Turing eleva a 10 GigaRays por segundo.

En términos de potencia bruta la comparación es clara: fueron necesarias cuatro tarjetas gráficas Volta para mover la demo de Star Wars con 55 ms entre fotogramas. Con una tarjeta gráfica basada en Turing podemos lograr 45 ms entre fotogramas, y con una GTX 1080 TI tendríamos unos desastrosos 308 ms entre fotogramas. La diferencia es abismal, de eso no hay duda, y todo gracias a la especialización que ofrecen los núcleos RT.

Seguimos con detalles interesantes a nivel de rendimiento y potencia bruta. Turing combina shaders (núcleos CUDA), núcleos ténsor y núcleos RT para ofrecer una potencia bruta de 78 Tera RTX-OPS, cifra que según el CEO de NVIDIA apenas llega a 12 en una GTX TITAN X.

Ya os habíamos anticipado en artículos anteriores que esos tres grupos de núcleos iban a jugar un papel fundamental en esta nueva generación trabajando juntos, y al final nuestras previsiones se han cumplido.

Volvemos a la importancia del trabajo conjunto de los diferentes bloques de núcleos presentes en Turing y al uso del renderizado híbrido que describimos al inicio. Turing es capaz de mejorar por seis el rendimiento de Volta en trazado de rayos.

En las dos imágenes inferiores podéis ver el resultado que ofrece una misma imagen con trazado de rayos y sin trazado de rayos. Acompañamos otras dos imágenes comparativas para que tengáis más claras las diferencias que puede marcar el trazado de rayos.

La demo técnica que ha mostrado NVIDIA funcionando sobre una única tarjeta gráfica Quadro RTX 6000 es verdaderamente impresionante, basta ver la calidad de la iluminación y los reflejos en tiempo real para darse cuenta de ello. Os dejamos el vídeo a continuación por si queréis volver a verlo.

Jen-Hsun Huang también ha aprovechado para hablar de la inteligencia artificial asociada a la GPU y a los núcleos ténsor. Su potencial es increíble como podemos ver en la imagen adjunta, ya que es capaz de aprender a hacer un montón de cosas: colorear imágenes, convertir un boceto en una imagen 3D, segmentar imágenes, aplicar cambios de color en tiempo real, crear imágenes con resoluciones muy elevadas y contribuir con diagnósticos en el sector médico.

El pre-procesado para mejorar y elevar la calidad de imagen acabará llegando al mundo del videojuego «en un futuro» según el CEO de NVIDIA, una tecnología que se apoya sobre una red neural (inteligencia artificial) para conseguir la mejor calidad de imagen posible. Esta tecnología aplicada a juegos se conoce como NVIDIA NGX (Neural Graphics Framwork for AI Image Processing).

Como técnica de suavizado de bordes logra unos resultados fantásticos como podemos ver en la imagen que os dejamos a continuación. Es una captura de la demo Infiltrator, funcionando en resolución 4K bajo una única tarjeta gráfica a 60 FPS.

Pasamos a hablar de juegos concretos que están muy cerca de su lanzamiento y empezamos con Shadow of the Tomb Raider. El trazado de rayos aplicado a las sombras ofrece una mejora notable, como podemos ver en la imagen adjunta. Las sombras se generan en tiempo real y lucen mucho mejor.

No podía faltar Metro Exodus, la nueva entrega de la conocida franquicia de 4A Games que como sabemos apuesta por el trazado de rayos. Acompañamos unas imágenes comparativas en las que podemos ver las diferencias que marca el trazado de rayos aplicado a la iluminación global del juego.

Confirmado, Battlefield V aprovechará las posibilidades del trazado de rayos. NVIDIA GeForce RTX mejora de forja drástica la calidad de los reflejos como podemos ver en las imágenes adjuntas. En la escena del fuego reflejado en las ventanas la diferencia resulta aún mayor y en general marca un avance importante frente al renderizado tradicional. La calidad de los reflejos es sublime.

En la siguiente imagen podemos ver los juegos que soportarán GeForce RTX. Hay una lista considerable. Tenemos también las imágenes oficiales de los tres modelos que ha confirmado NVIDIA, os los dejamos al inicio donde acompañamos la descripción detallada de las RTX 2070, RTX 2080 y RTX 2080 TI.

Las GeForce RTX 2070, RTX 2080 y RTX 2080 TI se pueden reservar desde hoy mismo, pero no llegarán al mercado hasta el 20 de septiembre. En general hemos visto un aumento importante en términos de potencia bruta y a nivel tecnológico, gracias a la apuesta de NVIDIA por el trazado de rayos, pero también se ha elevado el consumo (TDP de 285 vatios) y el precio de venta frente a la generación anterior.

Editor de la publicación on-line líder en audiencia dentro de la información tecnológica para profesionales. Al día de todas las tecnologías que pueden marcar tendencia en la industria.

14 comentarios
  • SAYO

    Y AMD tiene algo para competir con Nvidia? espero que sí.

  • Kmy_kun

    este puede ser un clavo en su ataud o la rampa hacia un golpe en la mesa, por lo visto las rtx no son taaan baratas y si amd hace un movimiento respuesta poniendo las competidoras de la 2070 hacia abajo a un precio realmente bajo nvidia se come la cachetada de su vida

  • Eduardo Medina

    El problema es que si necesitas renovar la fuente de alimentación para tener lo último de AMD y no para tener lo último de NVIDIA la cosa pierde perspectiva.

  • bmdqs

    Solo un comentario para una comunidad peculiar…

    -Geforce 256
    -Geforce 8000
    -Geforce 2000

    ¿No tienen nada en común? Y si comentó que antes de la Geforce 256 no se usaba el termino GPU.

    ¿No lo notan? Es solo para amantes del hardware, por eso decía que era un comentario para una comunidad peculiar, suerte con el nuevo diseño.

  • Héctor Péctor

    La conferencia ha sido malísima: precios abusivos, ausencia del rendimiento real en juegos, el RTX es una tontería y encima el vídeo iba a tirones, nada sobre el aumento de rendimiento frente a la generación Pascal, nada sobre el rendimiento de éstas sobre resoluciones 4K que además es dónde podrían haber sacado pecho y, para colmo, la 2080 de referencia con dos ventiladores (que se agradece), pero el añadido de un nuevo ventilador es sinónimo de que va a ser calentitas.Toda la conferencia con los rayitos.
    Nvidia está cómoda, o más que cómoda, está sola en el mercado de gráficas. Algo que recuerda a intel antes de la llegada de los Ryzen, porque si AMD no los llega a lanzar, tenemos 4 núcleos y 8 hilos de refritos y refritos hasta 2050.
    Espero que AMD lance algo competitivo para que Nvidia vuelva a bajar a la tierra.

  • SantiioDiRT

    AMD nunca(o casi nunca) tuvo nada para competirle ni a Nvidia y menos a Intel.

  • Adrián Ramón Plá

    Así es, Nvidia levantó la vara muy alta con Turing para gaming para que se comience a implementar como estándar el raytracing en juegos… esta primera gama de Geforce RTX no valdrá la pena, porque sólo tendrá potencia justa para mover los primeros juegos que implementen raytracing y no serán muchos, incluso por la lista, muchos sólo lo implementarán como un parche agregado y no desarrollado de cero… las próximas líneas serán mas interesantes, tal vez tengamos hardware con raytracing por parte de AMD e Intel que entrará a competir… esto es muy similar a la primera Geforce 256 de 1999, primera con hardware TnL, pero pocos juegos de entrada que le sacaran el jugo, y cuando la cosa se estandarizó, ya no tenía la potencia suficiente para mover los futuros juegos con TnL…

  • Eduardo Medina

    Que yo sepa antes AMD podía competir con NVIDIA en todas las gamas a pesar de sus problemas con los drivers y la eficiencia, pero es que ahora está casi al nivel que en CPU tenía antes del lanzamiento de Ryzen, con productos que no eran una alternativa en ningún ámbito, centrándose en las gamas medias y bajas y lanzando cada vez productos peores. En GPU está casi en el mismo agujero que en el que cayó cuando lanzó Bulldozer, la arquitectura que prácticamente la sacó del mercado de CPU frente a los Core i de Intel.

    De no ser por el minado de criptodivisas a nivel de GPU AMD estaría al borde de la muerte, y que den gracias que con el minado han revertido la racha negativa que llevaban frente a Intel, porque de seguir la tendencia que había a finales de este año iban a quedar, según Steam, por debajo de Intel en cuota de GPU (sí, GPU).

    Aunque la RTX 2070 y 2080 se llevan el protagonismo en los medios, para mi la clave está en la GTX 2060. Como cumpla las expectativas de rendimiento y se quede cerca de una 1080, eso será un golpe mortal para AMD, a la que no le quedará otra que rezar por la existencia de otra burbuja en torno a las criptodivisas si el año que viene no es capaz de presentar algo que por fin esté a la altura de NVIDIA, aunque sea quedando cerca y mejorando la calidad-precio, que es la estrategia seguida con Ryzen.

  • SantiioDiRT

    Yo era fiel seguidor de AMD, me monte un equipo amd con gráfica amd y os puedo asegurar que no sirve, ni para gaming ni para nada, no solo eso el fx que compré murió a los 3 años y se llevo la placa por el camino, y más la gráfica iba mal, R9 280X, drivers malos, la gente que cree que AMD es bueno por ser barato,lo siento, pero hace tiempo que son una decepción, no tienen mucho que hacer contra intel o Nvidia, es mi experiencia personal y la de muchos, ni poniendo las gráficas a mitad de precio que Nvidia compiten, solo sirven para minado y da gracias.

  • Virtualbox Vbox

    Como ya dijisteis por aquí en MC: Es tecnología innecesaria, pero está ahí y llama bastante la atención. Por tanto, AMD, espero que tengas algo en la cocina… porque veo a Nvidia aún más subida de lo que está y eso no es nada bueno 🙁

  • Juan Carlos Gonzalez Figueroa

    Saludos SantiioDiRT, ¿en esos tiempos que se le dañó el hardware, tenía el equipo conectado a polo a tierra y un buen supresor de voltaje con buenos julios de protección? Tal vez fue por un pico alto de voltaje.

  • juan carlos

    esos tiempos eran otros era normal la empresa andaba mal, y era la unica que brindaba cosas baratas ahora q recupero ps esta mucho mejor, muchos tenian miedo de montar hoy en dia amd pero ve los ahi compitiendo mejor q nunca , y mira que uno de ellos se fue a intel lol :u

  • juan carlos

    para q llegue al pubg lo de los rashos laser no me lo creo , o llegara en 2 años XDD, y sobre la potencia: entonces mas potencia y q??? vuelta los mineros minaran comprando hradware bueno a menos precio comparados con 1080ti etc etc??’

  • SantiioDiRT

    Si, pero el rendimiento del FX nunca fue bueno (y lo sigo teniendo, que me volví a comprar el mismo modelo para sustituirlo), y AMD siempre encuentra alguna forma nueva de cagarla, parece que estan gafados.

Top 5 Cupones

Lo más leído