Web Analytics
Conecta con nosotros

Noticias

AMD podría apostar por las GPUs MCM, ¿qué supone esto?

Publicado el
AMD podría apostar por las GPUs MCM, ¿qué supone esto? 30

WCCFTech ha publicado una broma por el primero de abril hablando de una tarjeta gráfica llamada Radeon RX Canis. A pesar de que la noticia no es real profundiza en un tema muy interesante que ya hemos tocado en ocasiones anteriores y que podría convertirse en el futuro de las soluciones gráficas en general, el uso de GPUs MCM.

Actualmente las configuraciones gráficas que utilizamos se conciben en dos grandes configuraciones distintas. La más habitual es la que incorpora una única GPU con unas especificaciones concretas (por ejemplo una GTX 1080 TI con 3.584 shaders), y la que ha caído en desuso es aquella que montaba dos GPUs interconectadas en encapsulados diferentes simulando un SLI o un CrossFire bajo un mismo PCB (GTX 690 por ejemplo con dos GPUs de 1.536 shaders cada una).

En el caso de las GPUs MCM tendríamos varios núcleos gráficos que estarían integrados en un único encapsulado, compartirían recursos y se comunicarían a través de un sistema determinado que les permitiría trabajar como si fueran una única unidad. Para que nos entendemos mejor el concepto sería muy similar al que hemos visto en los Ryzen de AMD.

A diferencia de lo que ocurre en tarjetas gráficas como las GTX 690, que tienen delimitada una cantidad concreta de memoria gráfica y no pueden compartirla, en las configuraciones con GPUs MCM todos los recursos del sistema estarían disponibles para todos los núcleos gráficos, de manera que no habría una fragmentación de los mismos y el rendimiento podría mejorar de forma notable frente a un SLI o a un CrossFire.

Estas configuraciones permitirían crear tarjetas gráficas más potentes equilibrando consumos y simplificando y economizando los procesos productivos, ya que no es lo mismo obtener núcleos gráficos de 5.000 shaders funcionales que conseguir núcleos gráficos de 1.250 shaders para unirlos en una unidad MCM de cuatro núcleos. La menor complejidad de los segundos posibilita una mayor tasa de éxito por oblea y al mismo tiempo reduce el impacto en la misma por su menor tamaño.

Editor de la publicación on-line líder en audiencia dentro de la información tecnológica para profesionales. Al día de todas las tecnologías que pueden marcar tendencia en la industria.

18 comentarios
  • Un usuario de Disqus

    Sería un avance importante si se logra, las Vegas con el i7 obtuvieron FPS casi igual que una 1060 y en una portátil, en los escritorios teniendo espacio y una fuente adecuada se podrá dar un paso más en el tema de calidad/rendimiento .

  • David Becerra

    la primera gpu mcm podria ser navi en 2019 aunque de momento es solo una posibilidad

  • Alejandro Cañavate Acosta

    muchos años falta para ver eso realidad

  • Angel “Ocelot” Eduardo

    Eso te piensas tu.. ya que zen usa ese sistema, así que no se que hablas.

  • Alejandro Cañavate Acosta

    búscame información que use esta tecnologías las gráficas , no me valen suposiciones quiero echos y reales ya! ,

  • Angel “Ocelot” Eduardo

    Eso lo puedes hacer tu .. ya que si no sabes aprende.

  • Alejandro Cañavate Acosta

    has quedado como el betún , un tío que afirma algo sin pruebas y encima va de listo , jajajaja

  • Angel “Ocelot” Eduardo

    No voy a repetir algo que dijo AMD hace un tiempo bastante cercano a día de hoy.. pero como no sabes sacar la información de otras webs o buscar se entiende de que no tengas ni puta idea de lo que hablas, ya que es comprensible ;).

  • Alejandro Cañavate Acosta

    Tanto Nvidia como AMD aún no utilizan esta tecnología en sistemas de escritorios gamer targetas gráficas solo ( GPU +CPU ) , deberías leer un poco , es absurdo lo que dices ,
    si lo hacen tendrían perdidas millonarias GPU +GPU porque entonces se pillarían 2 tarjetas GPU +GPU y tendrían como 4 chips y tendrían gráfica para muchísimos años cosa que no renta a las empresas

  • Angel “Ocelot” Eduardo

    Que si lo que diga señor y dueño de nvidia y amd..que tu lo sabes todo y eres la personificación de la verdad.. suerte con tu ignorancia ;).

  • Alejandro Cañavate Acosta

    ignorancia ?¿ la tulla que sin argumentos ni pruebas hablas demasiado , sin pruebas no vale para nada tus argumentos , piensa antes de hablar ,

  • Alejandro Cañavate Acosta

    ademas si les la noticia es una broma de lo april fool , que tolete

  • Jose Angel
  • Alejandro Cañavate Acosta

    estamos hablando de GPU dedicadas , que quieres que vea ahí?¿ a mi no me sirve para el PC que es de lo que habla la noticia

  • Jose Angel

    Sigue siendo el mismo concepto, otra cosa es conseguir trasladar eso al Pc. ¿Acaso entiendes cual sería el problema a resolver? Hay dos básicos, uno el software (que está claro que no va a cambiar) y el otro las latencias entre clúster.

    Si AMD traslada esto al mundo profesional, donde las latencias no son importantes y el software sería fácil de adaptar, pronto veríamos lo mismo en sobremesa. Si ha conseguido de alguna manera eliminar latencias independientemente del software significaría un lanzamiento para sobremesa. Sería simplemente cambiar el concepto de chip GPU en los ordenadores.

    Lo que pretendía decir es que ya existe desde hace años, no es nada nuevo, solo falta que aparezca por primera vez en un ordenador, independientemente que sea una supercomputadora o una tablet Windows si en ella funciona. Similar a lo que pasó con las bibliotecas gráficas de bajo nivel.

  • Alejandro Cañavate Acosta

    si eso se sabe , pero no lo vamos a ver en muchos años ya que la noticia habla de gpu dedicadas tanto NVIDIA como AMD que dudo que lo hagan para los mortales , en ámbito profesional si lo veo pero en el nuestro lo dudo mucho , ya que las empresas prefieren vender cantidades para sacarnos más pasta , tu imagina lo que dices , los mineros serían los reyes mientras nosotros los mortales sería algo imposible de poder catar!

  • Jose Angel

    Los mineros ya son los reyes ahora, dominan el mercado de las GPU aunque cada vez se debilita más gracias a los equipos ASIC dedicados. El problema es que es un mercado inestable, por eso AMD/NVIDIA ignoran este mercado como si no existiera a la hora de dar orden de fabricar.

    Lo de en años es algo relativo, eso se podría decir cuando las GPU de smartphone empezaron a tener potencia aceptable para sobremesa, y eso ya estaba alcanzado en 2014 (empezaron a tener, no que se montaran en un smartphone). Lo único que falta es que una compañía lo lleve a buen puerto en un Pc cuando el problema es que lo va a hacer AMD. Me explico: si llega a ser NVIDIA, con su dominio casi absoluto si lo vería más factible, pero AMD tiene que guardar un buen as bajo la manga para llevar eso a buen puerto. Vamos, ese sería el problema que veo yo.

    Lo de trasladar la tecnología del mundo profesional al particular sería algo rápido: los núcleos tensoriales van a tardar tres años a lo sumo, aunque todo apunta que vienen con la próxima generación NVIDIA, lo cual significa un único año.

  • Alejandro Cañavate Acosta

    claro , pero lo de profesional a particular lo decía por el precio .. están llegando a costar 1.000 euros en unos años ya ni te digo , como no se normalicen las cosas!

Lo más leído