Web Analytics
Conecta con nosotros

A Fondo

NVIDIA y el problema de justificar tarjetas gráficas de más de 1.000 euros

Publicado el
NVIDIA y el problema de justificar tarjetas gráficas de más de 1.000 euros 31

El anuncio de las RTX 2070, RTX 2080 y RTX 2080 TI generó un gran interés. NVIDIA supo hacer ruido y se ganó la atención de buena parte de los aficionados al mundo del videojuego en PC, pero al mismo tiempo sembró dudas que todavía hoy no han quedado totalmente resueltas.

Turing, la nueva arquitectura gráfica de NVIDIA, ha debutado como la primera que cuenta con unidades o núcleos RT dedicados para trazado de rayos. Ese es su mayor avance, ya que los núcleos ténsor para inteligencia artificial y aprendizaje profundo ya estaban presentes en Volta. Sobre el papel la idea es atractiva, pero en la realidad no tanto, ya que el uso del trazado de rayos en juegos es algo que todavía está muy verde, tanto que las grandes desarrolladoras han tenido que empezar a meterlo con calzador a sus nuevos juegos triple A.

Todo esto representa una realidad muy clara: un intento forzado y poco ortodoxo de justificar una línea de tarjetas gráficas que llega a un precio desorbitado y que en términos de rendimiento bruto y de eficiencia no marca un salto importante frente a la generación anterior.

NVIDIA y el problema de justificar tarjetas gráficas de más de 1.000 euros 33 NVIDIA y el problema de justificar tarjetas gráficas de más de 1.000 euros 35

Jugar en 4K de forma fluida ya era viable

Tras la llegada de Turing he leído cosas sin sentido. Algunos medios dicen que la RTX 2080 TI por fin hace que sea viable jugar con garantías en 4K, cosa que ya era perfectamente posible con las GTX 1080 y GTX 1080 TI, e incluso con la GTX 1070 bajando un poco la calidad gráfica. Otros dan por hecho que el trazado de rayos va a ser una revolución y que debemos creer en ello aunque todavía no tengamos nada más que una demo técnica sobre la mesa (sí, la de Star Wars).

No entiendo qué les ha llevado a lanzar esas opiniones, pero lo importante es que son erróneas. Pascal permite jugar en 4K a partir de una GTX 1070, es decir, no necesitamos una RTX 2080 TI para disfrutar de dicha resolución, y apostar a ciegas por una tecnología que todavía ni siquiera está disponible en un juego comercial es un gran error, sobre todo si tenemos en cuenta el importante vínculo que existe entre el desarrollo de videojuegos y las consolas.

A día de hoy todos los desarrollos de videojuegos se centran en las consolas, concretamente en PS4 y Xbox One. Esto quiere decir que un juego triple A parte de la base de hardware de ambas para funcionar de forma óptima en ellas, y la versión para PC permite elevar la resolución y mejorar algunos ajustes gráficos, pero en esencia es el mismo juego en esas tres plataformas.

NVIDIA ha sido consciente de esta realidad, y sabía que no podía justificar una nueva generación de tarjetas gráficas tirando una vez más de potencia bruta. El 4K todavía no se ha estandarizado y no hay desarrollos exclusivos para PC que aprovechen el potencial real del hardware actual, así que los de verde no han tenido más opción que recurrir a dos tecnologías que como dijimos están en pañales: trazado de rayos y DLSS.

Ninguna de esas dos tecnologías tendrá cabida en las consolas de la generación actual, y estoy convencido de que tampoco en la próxima generación, ya que PS5 y Xbox Two van a utilizar una GPU Navi de AMD. Esto quiere decir que los desarrolladores seguirán estando «forzados» a introducir el trazado de rayos y el DLSS de NVIDIA en sus juegos multiplataforma durante varios años, y que ninguna de las dos se estandarizará ni siquiera a largo plazo.

NVIDIA y el problema de justificar tarjetas gráficas de más de 1.000 euros 37

AMD sigue su propio camino

Podemos decir que NVIDIA ha sido víctima de su propio éxito. Pascal ha sido una generación soberbia que ha dejado el listón muy alto, y Turing no ha sido capaz de superarlo. Este escenario nos deja ver algo muy curioso, y es que lo que parecía un error por parte de AMD al final ha acabado siendo todo un acierto.

Las últimas generaciones gráficas de la firma de Sunnyvale han confirmado una apuesta clara por reducir el catálogo de productos y centrarse en las gamas más populares. AMD ya no compite por tener las soluciones gráficas más potentes del mercado, sino por cubrirlo con buenas opciones en relación calidad-precio, una estrategia que han sabido compaginar con su apuesta por las GPUs semipersonalizadas. Esta realidad ha dejado a AMD en una posición mucho más cómoda. La compañía sigue vendiendo APUs a Sony y Microsoft para las consolas PS4-PS4 Pro y Xbox One-Xbox One S, y además se ha hecho con el contrato para suministrar los componentes (CPU y GPU) para PS5 y Xbox Two.

En el sector de tarjetas gráficas de consumo general AMD ha llevado a cabo un planteamiento mucho más realista y no se ha dejado llevar por la idea de ofrecer una mayor potencia bruta, sino por cubrir de forma más efectiva y realista las necesidades del usuario medio, una categoría que se agrupa en torno a las resoluciones 1080p y 1440p.

Según las últimas filtraciones todo apunta a que la firma de Lisa Su repetirá estrategia con las Radeon RX 600, que serán una revisión de Polaris en proceso de 12 nm y traerán una mejora de rendimiento de un 15%. Esto quiere decir que una Radeon RX 680 seguirá sin superar a una GTX 1070, pero que podría ofrecer una potencia claramente superior a una GTX 1060 de 6 GB con un precio aproximado de poco más de 200 euros.

De nuevo AMD apostará por priorizar la gama media y no lanzará su GPU de nueva generación hasta finales de 2019. Viendo el estado del mercado actual es un enfoque muy acertado, ya que el estancamiento que han impuesto las consolas hace que aquellos que tienen tarjetas gráficas de gama alta de 2014 y juegan a 1080p no tengan razones reales para actualizar, y que una tarjeta gráfica de gama media actual sea más que suficiente para jugar en resoluciones 1440p.

Curioso, muy curioso que al final la principal fortaleza de NVIDIA se haya acabado revelando como una debilidad. Puede que el trazado de rayos sea el futuro, pero de momento solo es una promesa que no sirve para justificar la compra de una tarjeta gráfica de 1.259 euros que hoy por hoy hace «casi lo mismo» que una de 700 euros.

Editor de la publicación on-line líder en audiencia dentro de la información tecnológica para profesionales. Al día de todas las tecnologías que pueden marcar tendencia en la industria.

24 comentarios
  • Kmy_kun

    mas encima con la poca compra de tarjetas( esperemos que el comprador intelgiente no compre esta descarada y sutil estafa) harán lo mismo que hicieron con la deshonrosa serie 700 (780, 780 ti) downgradeando la serie 1000 para que le compren las nuevas.

  • Eduardo Medina

    Recuerdo yo hace dos años la escalada de la potencia y la resolución que hubo, había que imponer el 4K como fuera, y no solo en PC, sino que Sony y Microsoft empezaron a hacer movimientos al respecto en sus divisiones de consola.

    Sin embargo, llegó la burbuja de las criptodivisas y AMD y NVIDIA vieron que ya no necesitaban a los gamers para vender gráficas como rosquillas, habían encontrado un nuevo público que les estaba robando el stock de las manos.

    Por otro lado, en consolas Switch ha sido todo un jarro de agua fría para la escalada de la potencia en consolas, hasta el extremo de que Xbox One y PS4 serán la segunda generación con una vida más dilatada en la historia de las consolas, solo superadas por sus predecesoras, que tuvieron que enfrentarse a lo peor de las crisis económica, por lo que Sony y Microsoft decidieron esperar a que la situación empezara a mejorar para lanzar una nueva generación de consolas con garantías de éxito a nivel de ventas.

    Sin embargo, en PC el panorama es bien diferente, ya que ahí sí que hay una escalada de la potencia sin control. La gente cree que ya necesita invertir 3.000 euros en un PC para jugar, y eso, como no podía ser de otra forma, hará que tanto AMD y NVIDIA como las desarrolladoras de juegos se froten las manos, ya que eso significará juegos menos optimizados y mejores márgenes para los fabricantes al vender más de las GPU más caras.

    Lo peor es que no todo el mundo tiene presupuesto para comprar un PC de 3.000 euros y la encuesta de Steam es la prueba de ello. Me juego a que la mayoría de usuarios de esa plataforma son incapaces de jugar a la mayoría de los juegos de su biblioteca al máximo. El consumidor más acrítico con su plataforma, aunque no lo parezca, es el del PC.

  • Joël Bonet Rodríguez

    Lo más gracioso de todos es la historia del ray tracing. Lo del DLSS digamos que es un modo de conseguir calcular trazados de rayos en tiempo de ejecución. En cuanto al trazado de rayos se presentó hace 4 años y solamente hace 2 apareció un «procesador dedicado» a ello. Utilizandose exclusivamente en películas de animación, en las que, lógicamente, el procesado o renderizado se realiza al crear el producto final y NO en tiempo real como sucede en los videojuegos.
    Si tenemos en cuenta la capacidad de cálculo del ray tracing de la 2080 ti con lo necesario para realizar esos cálculos veréis que es irrisorio. Principalmente porque actualmente no existe tecnologia alguna para calcular el ray tracing en tiempo real (pensad que los rayos de luz deben calcularse en su interacción con todos los objetos, para distintas texturas y mostrarse de forma precisa).
    Dicho de otro modo, están vendiendo humo.
    Si es cierto que si en el desarrollo de un juego se aplica esto ligeramente podriamos apreciar un poco de mejora (quizá pausando la partida y mirando de cerca), pero no puede sustituirse el cálculo de iluminación actual por el ray tracing porque no es viable y tampoco es posible, ni ahora, ni dentro de un año.
    Tampoco creo que sea nvidia la que lleve esta tecnología a su auge, estando la competencia (y creadores) de esta tecnología bastante más avanzados y teniendo la totalidad del mercado para las aplicaciones reales y factibles de dicha tecnología.
    Si has llegado aquí gracias por leer y encima, de algo te habrá servido. Un saludo!

  • Joël Bonet Rodríguez

    Respondo a tu comentario a modo de curiosidad y anecdota personal o experiencia ya que soy «de esos» que les gusta poder jugar a ultra y apreciar los gráficos (a parte de servirme la misma build para mi trabajo). Tenia un equipo con un FX-8370, 32Gb de RAM DDR3 1866Mhz y una R9 Fury, comprado todo cuando ya estaba a un precio viable. Hace un año cambié la build entera y este equipo sigue funcionando hoy en día moviendo todos los juegos ultra en resolución 2560×1080.
    Si te fijas en el año de lanzamiento de las piezas verás la duración. Fue mi primer equipo todo AMD. Encima, pude cambiar placa por una que admitiera M.2 y va como un tiro.
    En mi vida me habia durado tanto un procesador y una grafica como estos. Va a ser verdad que los productos de AMD tienen buen envejecer.
    Ahora y desde hace un año voy con un 1700x, 32gb de ram a 3000 y una Vega 64, con monitor 2K. Dentro de 5 años, ya hablaremos de cambiar piezas a ver si es necesario.
    Por el mismo precio, hace año (y pico) en vez de esta build podria haber cogido un i5 de los caros, la misma RAM y una 1070. También veremos en 5 años (cuando la build tenga 6) si la historia se repite y AMD vuelve a ganar en durabilidad.
    Por ahora la de 6 años sobrevive a un par de generaciones de consolas y tiene pinta que sobrevivirá a la tercera.

    PD: para quienes trabajéis en diseño y renderizados, por experiencia personal y viéndolo cada dia, una build AMD es más eficiente, rinde mejor (renderiza mas rapido dejándote mas tiempo para otras cosas) que una build intel + nvidia. A mi me costó unos 2.000€ comprobarlo.

  • Eduardo Medina

    Si no ando mal encaminado, porque de esto sé lo justo. Intel disipa sus procesadores con pasta, mientras que AMD lo hace con chapa, aunque no pongo la mano en el fuego porque a lo mejor me estoy equivocando.

    De ser así, es normal que las CPU de AMD envejezcan mejor, ya que Intel usa la pasta para reducir la vida útil de las CPU.

    Mi configuración actual cuenta con un Ryzen 1700, 32GB de RAM a 3.200MHz y una RX 580, pero me da que será el último equipo «potente» con el que me haré (la gráfica reconozco que es un capricho, pero el resto es por necesidades de potencia debido a mi trabajo y a lo que abarco). El siguiente será una buena APU que me dé lo que necesito sin alardes.

  • El calor no reduce el rendimiento del CPU, su vida util muere mas o menos rapido pero es similar a un SSD. Una vez que empieza a morir, no hay vuelta atras y hay que cambiarlo, pero antes de esto no hay cambio alguno de performance

  • Excelente analisis!
    Hace años habia pronosticado en un foro Chilieno donde se hablaba muchisimo de hardware algo similar, pero no tan exacto, por el dominio de consolas que le brindaba una enorme ventaja a AMD… claramente la supieron aprovechar, siendo eficientes y practicos

  • Varan Rosev

    Yo también sé lo justo, y por eso no tengo claro si cuando se habla de la pasta térmica que usan los procesadores nos referimos a la que se pone entre el procesador y el disipador, o si nos referimos a lo que va dentro del encapsulado. Yo hasta ahora creía lo primero, pero cuando vi que el disipador del Ryzen 5 2600 que adquirí hace poco traía la pasta térmica ya preaplicada, pues empecé a preguntarme dónde se suponía que AMD sustituía la pasta térmica por soldadura.

  • Goo Ball

    Y el factor vendedor. No te olvides de él. El otro día fui a una tienda del barrio a pedir presupuesto para un Ryzen 5 1400 (B350) + RX 560 4GB y el del mostrador se me rió en la cara diciendo que eso no servía para nada, pretendiendo que gastase más, aún después de haberle explicado que no pensaba subir de calidades medias y que era para jugar a 1600×900.

  • Jose Pons Toran

    Que mal. El 1400 es como un i5 de 4ª gen que tira perfecto todos los juegos pero encima con 8 hilos. Y a esa resolución con una rx 560 de 4gb se puede jugar en alto a unos fps bastante aceptables.

  • Jose Pons Toran

    Si, es dentro de la chapa compañero. AMD los hace en todos, puede que haya alguno de muy bajo consumo que no esté soldado, pero en general todos. En cambio Intel no, solo los nuevos i7 9700K y i9 9900K van a ir soldados. Porque sino ya sería demasiado!

  • Hector MA

    La escenita del ray tracing no podría ser mas artificial, no presenta nada nuevo.

    Nvidia no solamente se niega de plano a adoptar tecnologías como DX12/Vulkan, sino que encima presenta una tecnología que nadie usa, que tampoco impresiona, que carga sobremanera el GPU y la pretende vender a precio de oro. Ni siquiera he podido encontrar un buen pretexto para subir de una R7 370 a una RX580, porque todavía tiene mucho jugo, creanlo o no, los juegos actuales vienen tan bien optimizados que me sobra. Por ejemplo FarCry 5 y eso que no usa DX12, lo paro a 1080p con calidad alta, aunque a 30FPS porque habilito VSYNC y se juega sin ningún inconveniente.

  • stban_ox

    mira si alguna vez le has cambiado la pasta termica a una tarjeta grafica o aun procesador de notebook, estos no tienen difusor de calor, el cooler va directamente sobre el silicio, en cambio el ryzen tenia una superficie metalica, esta es la que hace de difusor de calor(esta soldada para mejorar la disipasion, bajo ella se encuentra el silicio), en el caso de la mayoria de procesadores intel(es solo una tapa pegada la que lleva entre esta y el silicio pasta termica(disipa menos el calor, ademas que con el tiempo puede endurecerse y perder gran parte de su transferencia termica).

  • stban_ox

    si lo puede hacer, si las temperaturas son altas se produce una baja en las frecuencia del procesador(para reducir el calor, lo que genera el llamado thermal throttling), por lo que si afecta el rendimiento.

  • Eduardo Medina

    Yo con el Steam Link aún juego a 720p, y bien que se juegan los juegos.

    Para el 4K necesitas una «pantalla de cine» si quieres sacarle el partido de verdad.

  • Adrián Ramón Plá

    Excelente artículo…

  • Rufus Murdock

    Nvidia adoptó Dx12 y Vulkan al mismo tiempo q AMD.

  • Eduardo Medina

    El problema no es que adopte o no, sino el entusiasmo con el que las adoptó, que fue bien poco.

    El concepto que Vulkan y DirectX 12 ponen sobre la mesa no gusta nada a NVIDIA, porque liman precisamente en el frente donde estás muerte, los drivers.

  • Eso es una funcion interna del procesador para no fundirse en casos de temperatura extrema.
    Repito: La temperatura no afecta al rendimiento. Si usas 2 procesadores por 10 años, uno a alta temperatura (la que te guste sin fundirlo) y el otro con 0º, luego de 10 años, van a seguir rindiendo exactamente igual que el 1er dia

  • Rufus Murdock

    No termino de ver la falta de entusiasmo. La implementacion de Vulkan y DX en los drivers de Nvidia no es mala, y desde luego no es tan mala como la de OpenGL en AMD.

    Supongo que dices eso porque cuando salieron esas APIs las tarjetas de AMD mostraron un buen incremento de rendimiento mientras que en Nvidia la mejora era mínima.

    Yo achaco eso a la arquitectura de las tarjetas de AMD, más adecuada para esas APIs de bajo nivel, sin duda porque están basadas/inspiradas en Mantle de AMD, la compañía de hecho colaboró con Kronos y Microsoft… así que era APIs un poco hechas a medida para AMD.

    Al menos esa es la impresión que saco de todo esto.

  • Muy interesante el articulo. Muchas gracias por la redacción.

    Por comentar algo, yo acabo de comprar una gtx 970 por $80 en muy buenas condiciones, y creo que mi hijo la usara por los próximos 18 meses. En los próximos meses montare una pc y definitivamente me voy con una AMD

  • taserhmg

    La serie K de los nuevos Intel irán soldados (hasta el i5 9600K), los demás no queda claro. En AMD los únicos no soldados son las APU’s de la serie 2000 de Ryzen (me parece que el motivo es que era complicado soldar la gpu integrada que llevan, pero la pasta térmica que incluyen es mucho mejor que la de los Intel).

  • Hector MA

    No, a la fecha AMD sigue siendo puntero en las pruebas con DX12, por un asunto de drivers que NVIDIA no quiere solucionar.

  • Rufus Murdock

    A lo mejor no es un problema de drivers sino de la arquitectura de sus tarjetas.

    Vulkan y Dx12 están basadas en la Api de AMD Mantle, ademas AMD participó en la elaboración de las 2… Así q es normal q sean unas apis diseñadas para rendir bien en las arquitecturas de amd

Lo más leído