Web Analytics
Conecta con nosotros

Noticias

FreeSync contra G-Sync ¿Por qué AMD le está ganando a NVIDIA?

Publicado el
FreeSync contra G-Sync

FreeSync le está ganando la partida a G-Sync, o lo que es lo mismo, la solución en tecnologías de sincronización de AMD está muy por delante de la de NVIDIA en adopción, explican desde PC World en un artículo donde analizan la situación.

FreeSync y G-Sync mejoran la comunicación entre el procesador gráfico y el monitor, eliminando cortes de imágenes o fallos que resultan en parpadeos o destellos. Para ello, sincronizan las tasas de refresco de la pantalla y las GPUs, asegurando un rendimiento fluido, libre de artefactos, minimizando el entrecortamiento de las secuencias y el retardo de la señal de entrada para mejorar la velocidad de respuesta, prácticamente a cualquier velocidad de cuadros.

Aunque NVIDIA sigue liderando -de lejos- la venta de gráficas dedicadas, en adopción de estas tecnologías de sincronización AMD va por delante, como por otro lado era predecible. El catálogo de monitores disponibles para jugadores incluye 20 monitores G-Sync, mientras que los disponibles con FreeSync ascienden a 85, mostrando además, mayores combinaciones de tamaño de pantalla y diversidad de características como la tasa de refresco.

G-Sync trabaja con un módulo de hardware propietario mientras que AMD no lo necesita, ya que funciona con una tecnología de frecuencia variable de refresco que es parte del estándar Display Port y más recientemente de HDMI.

Además de ser más abierto, barato y sencillo de implementar, FreeSync permite a los fabricantes utilizar este tipo de tecnologías sin necesidad de cambiar sus diseños de monitores y paneles, ni de tener que hacer un hueco a un módulo de hardware adicional.

Además, algunos fabricantes de monitores se sienten restringidos en la forma en que pueden diferenciar sus monitores G-Sync. Uno de los más grandes, EIZO, tiene una característica en sus monitores de juegos llamada Smart Insight que ajusta el brillo y gamma sobre la marcha, lo que ayuda a mejorar la visibilidad en las zonas claras y oscuras.

Esta característica no es posible con G-Sync, porque el módulo de NVDIA se encarga de todos los ajustes de color. Además, G-Sync no admite la frecuencia de actualización variable a través de HDMI. Esto significa que todos los monitores con G-Sync deben incluir DisplayPort, elevando el coste de fabricación.

Ello nos lleva a un asunto importante: el precio final de venta de los monitores, bastante más caro los que usan la tecnología de NVIDIA. El director de marketing técnico de la compañía explica que, «se trata de valor no de coste» y piensa que aumentará la oferta en gama media y baja de monitores con G-Sync, bajando precios. Aún así, aseguran que no es su objetivo, sino «proporcionar una experiencia de juego de alta calidad y ahí es donde vamos a seguir centrándonos».

Coordino el contenido editorial de MC. Colaboro en medios profesionales de TPNET: MCPRO, MuySeguridad, MuyCanal y Movilidad Profesional.

16 comentarios
  • Rufus Murdock

    Cual de las 2 opciones genera menos input lag ?

  • EFS

    ambas cumplen su función de no perder frames de la gráfica al monitor

  • Halios

    En este caso el ámbito abierto, de bajo coste y fácil implementación de AMD a sido mucho mas apetecible para los fabricantes que la tecnología de NVIDIA, en este apartado AMD se porta y mucho.

    Solo desespero por un tecnología tipo Shadowplay para AMD por k es simplemente genial.

  • Mirage

    Es por esto que necesitamos competencia, nvidia esta ya con las abusivas politicas de los monopolios, desde obligar a implementar soluciones únicas y de su propiedad hasta cobrar precios elevadisimos o baratos pero restrgiedo beneficios como el soporte multi GPU en las gamas bajas y mediabajas de sus tarjetas

  • st.UART

    Madre mía que déjà vu… BetaMax contra VHS…

  • Arcangel

    Cassete VS CD y DVD VS Blu Ray

  • gustavo m

    Blu Ray competía contra HD-DVD no con DVD-ROM

  • Gregorio Ros

    No se lo que influiran las consolas, van con gráficas AMD, si soportan freesync (que no lo se) puede que tenga parte de culpa del desequilibrio. Cierto que la mayoría las conecta a la tele, pero las nuevas teles son monitores de ordenador con un decodicador de tv.
    De todas formas tambien creo que el formato «propietario» de Nvidia pese en contra de esta compañia.

  • Arcangel

    tienes razón, pero el formato Blu-Ray no está muy extendido en el mercado latino como el DVD por el alto costo de los reproductores y las películas que venden en ese formato

  • Lord Condemort

    Yo espero que suceda lo mismo con Vulkan vs DX12, a ver si el software libre, y sobre todo multiplataforma, le gana también el pulso al privativo… Y teniendo en cuenta que Windows 7 todavía tiene una gran cuota de mercado y que sólo Vulkan está disponible para ese sistema operativo, me parece que no es descabellado pensar que acabará siendo el «vencedor»

  • Rufus Murdock

    Quién sabe.

    También es cierto que la negativa de Apple a implementar Vulkan en iOS y MacOSX le ha hecho daño (iOS es muy importante). También es cierto que los usuarios de Windows 7 y 8 acabarán migrando a Windows 10 tarde o temprano, obteniendo soporte a DirectX10, y que buena parte del sector gamer ya lo ha hecho (el 47.28% de los usuario de Steam lo usa).

    De momento parece que no hay un ganador propiamente dicho. Los motores de videojuegos se están actualizando para soportar ambas APIs y muy pocos juegos, más en el futuro (no estoy seguro, pero me parece que hay mas juegos anunciados con DX12 que Vulkan).

  • 9volt

    Ir a contracorriente y apostar por tecnologías propietarias es lo que tiene, que como no sean sencillas y mínimamente baratas no ganan.

    ¿Que habría pasado con el HDMI cuando salió si hubiese sido carísimo de implementar y restrictivo?, que se lo habrían comido con patatas, pero vino con un cable relativamente simple y fácil de conectar, y aún con royalties, estos no eran muy elevados. Hubiese preferido que triunfase el Mini DisplayPort, pero en comparación me parece mas sencillo el HDMI frente al DisplayPort de tamaño completo.

  • anktonio

    …»las nuevas teles son monitores de ordenador con un decodicador de tv»…

    No estoy muy al tanto de la tecnología, pero me ha sorprendido saberlo. Tiene sentido lo que dices, una sola tecnología (la mejor, la aplicable a monitores) para todas las pantallas, lo que ahorra costes. Hace poco compré un Acer H277HK por muerte de un LG de 22 pulgadas FullHD (10 años), ahora que leo esto, quizá debí comprar un TV 4k de 32 pulgadas y acoplarlo al PC, pero quizá las TV no admitan controles precisos de gamma, sRGB… ¿o sí?

  • Gregorio Ros

    Cualquier tv te permite modificar los controles, otra cosa es que tenga mejor o peor tiempo de respuesta si la quieres para jugar. Ademas que el deco de tv o las funciones de smart tv que llevan incrementan el precio. Pero como se venden muchas TVs y hay buenas ofertas a veces trae cuenta.
    A cualquier tv actual le metes la salida hdmi del PC y a correr. Yo me pille una tv de 40″ y 4K de Philip (un oferton a precio de normal por sacar modelo nuevo), mi tv murio esta primavera, y le tengo puesta una raspberry pi como centro multimedia (cualquier pc vale), ademas de la entrada de la tele. La verdad es que como tv no se que hacer con las 4k, ahora estoy pendiente a las noticias de Google sobre el proximo servicio de series y pelis, a ver si me merece. Como monitor de pc me viene demasiado grande, no tengo grafica para tanto.

  • walter11av

    y yo que acabo de comprar un monitor dell P2014H, que les parece este monitor?

  • Товарищ Кельты

    En el caso del BR y el HDDVD se pueden catalogar ambas como fracaso, las unidades ópticas están muertas la única que todavía sobrevive es el CD de audio y tiene los días contados… El disco de vinilo marca records de ventas mientras los formatos ópticos digitales caen en picado… Quien lo diría.

Lo más leído