Web Analytics
Conecta con nosotros

A Fondo

AMD augura el final de la carrera de los MHz

Publicado el
AMD augura el final de la carrera de los MHz 35

Los procesadores han pasado por diferentes etapas en las que los grandes del sector han priorizado diferentes aspectos, como la frecuencia de trabajo o el conteo de núcleos. Como recordarán muchos de nuestros lectores hasta la llegada de las CPUs de doble núcleo la prioridad absoluta de gigantes como Intel y AMD pasaba por ganar la carrera de los MHz.

Ese fue el curioso nombre con el que se conoció a una etapa bastante larga en la que los procesadores de nueva generación no se limitaban a introducir nuestras instrucciones, nuevas arquitecturas y nuevos procesos de fabricación, sino que además traían unos aumentos de frecuencia de trabajo muy grandes.

Para entenderlo mejor basta con echar un vistazo a las frecuencias de trabajo que alcanzaron los procesadores Intel Pentium II, una generación que llegó a los 450 MHz de frecuencia, y la que lograron los Pentium III: hasta 1,5 GHz. Un salto importante, y lo mismo ocurrió con el Pentium 4, que si no recuerdo mal llegó a los 3,8 GHz.

AMD augura el final de la carrera de los MHz 37

La diferencia entre esas generaciones de procesadores a nivel de frecuencia de trabajo es abismal, pero estuvo marcada por varios puntos de inflexión, como la llegada de los Athlon 64 de AMD, que ofrecían un rendimiento muy alto sin tener velocidades de trabajo tan elevadas como los Pentium 4, y también con el debut de los procesadores multinúcleo, que hicieron retroceder de forma significativa las frecuencias máximas de los procesadores de alto rendimiento.

Por ejemplo, el Core 2 Duo E6600 fue uno de los procesadores estrella de 2006 para equipos gaming de alto rendimiento, y eso que su frecuencia de reloj apenas llegaba a los 2,4 GHz. Con el paso del tiempo los núcleos han ido aumentando, y también lo han hecho las frecuencias de reloj de los procesadores, una situación que podemos definir como una normalización de dos realidades que chocaron en una primera etapa: el incremento de núcleos y de MHz.

AMD augura el final de la carrera de los MHz 39

La reducciones de proceso obligarán a reducir la frecuencia de trabajo

Es un hecho que la frecuencia de trabajo de los procesadores se ha estancado durante la última década. Tras esa etapa de recuperación en la que núcleos y MHz fueron creciendo de forma conjunta nos encontramos en una situación clara: tenemos procesadores con más núcleos que no funcionan a mayor frecuencia de trabajo.

AMD ha participado en la conferencia Rice Oil and Gas HPC, donde ha traído su iniciativa «Working Beyond Moore’s Law», y en ella han dejado una serie de claves muy interesantes que nos permiten entender el futuro a corto y largo plazo de los procesadores. Una de las novedades más importantes la tenemos precisamente en lo que ya hemos expuesto, que los futuros saltos a procesos de fabricación más pequeños (reducciones de nanómetros) no solo harán que ya no podamos confiar en aumentar las frecuencias de trabajo para mejorar el rendimiento, sino que además podría producirse un retroceso, es decir, que acabaríamos viendo procesadores a menor frecuencia.

Forrest Norrod, vicepresidente senior de AMD, se ha encargado de llevar a cabo la exposición que ha ilustrado dicha iniciativa, aunque no ha asociado esa reducción de frecuencia a ningún proceso de fabricación concreto. Se espera que Zen 2, una arquitectura que dará el salto a los 7 nm, mejore las frecuencias de trabajo que hemos visto en los procesadores Ryzen 2000, así que es probable que el ejecutivo se esté refiriendo a los próximos saltos generacionales (5 nm e inferiores).

Las ventajas que ofrecen las reducciones de proceso en términos de densidad de transistores también son, según AMD, cada vez menores. Esto se debe no solo a las propias limitaciones del silicio, sino también a las barreras que impone el encapsulado. Ni siquiera Zen 2, con su diseño MCM (módulo multi-chip), se libra de este problema.

AMD augura el final de la carrera de los MHz 41

Apilado de DRAM y SRAM en 3D: memoria integrada en la CPU

Otro tema interesante que ha tocado Norrod ha sido la idea de apilar componentes en 3D para mejorar el rendimiento de sus procesadores. Apilar semiconductores en 3D no es algo nuevo, la memoria NAND Flash 3D lleva un tiempo utilizando esta idea con excelentes resultados, y lo mismo ocurre con la memoria HBM y HBM2.

Sin embargo, cuando hablamos de procesadores tenemos un panorama mucho más complejo, sobre todo por las limitaciones que encontramos a nivel de alimentación y de temperaturas de trabajo, pero resulta prometedor, desde luego. La idea que ha expuesto el vicepresidente senior de AMD plantea la integración de memoria DRAM y SRAM en la parte superior de la CPU, es decir, en un encapsulado que iría justo encima del la pastilla de silicio que representa el corazón del procesador, y con la que se comunicaría de forma directa a través de conectores verticales «TSV» («a través del silicio»).

AMD augura el final de la carrera de los MHz 43

Esta diferenciación en el sistema de conexión de ambos encapsulados es muy importante, ya que los conectores TSV permiten conseguir una alta velocidad y una gran rendimiento. Dicho de otra forma, son la mejor opción en términos de potencia bruta y reduce, además, el consumo y las temperaturas. No profundizó en la aplicación de este sistema de apilado en soluciones concretas, así que de momento solo podemos esperar.

Por último el ejecutivo también hizo referencia a la importancia de la interconectividad de componentes en los diseños MCM (módulo multi-chip), utilizado en los procesadores Zen, Zen+ y Zen 2, y comentó que siguen trabajando para introducir mejoras que permitan aumentar el rendimiento, entre las que destacó el soporte de CCIX y Gen-Z.

Editor de la publicación on-line líder en audiencia dentro de la información tecnológica para profesionales. Al día de todas las tecnologías que pueden marcar tendencia en la industria.

22 comentarios
  • Álvaro Lázaro Laín

    Si los 5 nm no mejoran a los micros, pues que mantengan los 7 nm y aumenten los núcleos, como hace Intel con su 14 nm+++ y sin embargo nadie se «queja» de que los nuevos micros vayan más lentos. Se supone, por tanto que la tecnología de cualquier tamaño se puede «mejorar» manteniendo los nm.
    Saludos

  • raul

    lo que hay que hacer es investigar nuevos materiales mas resistentes que el silicio en esas dimensiones de transistor que se estan usando ya que no creo que un transistor de 5nm de silicio dure mas de 5 años

  • Álvaro Lázaro Laín

    O sea, que estamos ante un colapso. Hasta que se descubran nuevos materiales se va a estancar todo.

  • Federico Machado

    Apenas se esta llegando a los 7nm para escritorio y saltaran a los 5 pero no quiere decir que lo esten explotando al maximo , lo mas que probable que los 7nm con nuevas revisiones daran para mucho mas años sino mira intel con los 14 perfeccionados .

  • Anony Anonymous

    No! ya se tienen nuevos materiales grafeno y fibra optica por lo que se ya puede alcanzar los terahercio (1 THz = 1.000 GHz) otro que ya se sabe que se esta probando por parte de intel y amd es el arseniuro de indio y galio (InGaAs).

  • Joël Bonet Rodríguez

    Utilizar de ejemplo los 14nm de intel no es bueno en este contexto ya que se han limitado a añadir nucleos y aumentar MHz a dichos procesadores. No aportan nada nuevo y juegan con la ventaja que muchos aplicativos utilizan single core. Si en este momento las aplicaciones en general se hicieran pensando en el multi-core de AMD y las gráficas con memoria HBM (Fury, Vega 56, Vega 64 o Vega VII) el resultado que obtendríamos los usuarios sería sustancialmente mejor, pero al tener una cuota de mercado inferior a las empresas de desarrollo de sofrware no les ha interesado dar el salto.

    Un saludo

  • Gregorio Ros

    Esto ya hace unos años que se veía venir. Por lo que leo en otros comentarios muchos relacionan directamente esta limitación con el material empleado o la reduccion de tamaño, por desgracia la limitación es causa de la velocidad de la luz, para nosotros 300000Km/seg parece infinito, para las frecuencias actuales es un tope. También se trabajan ya unos tamaños en los que faltará poco para llegar a un punto de incertidumbre físico de la materia (no se cual sera realmente, pero….). La idea del apilamiento si que la encuentro muy acertada, no puedes aumentar la frecuencia, pero sí acercar los componentes para disminuir los enormes retardos que se producen entre componentes. En cuanto a lo de aumentar núcleos es otra solución que adolece de límites, si que hay procesos que lo admiten y le sacaran partido, lo mas susceptibles ya lo hacen, mas a modo general complica la programación, su implementación va mas lenta de lo que estamos acostumbrados, tendremos que cultivar la paciencia un poco. Por otra parte hay procesos que no admiten el proceso en paralelo, si o si hay que hacerlos secuencialmente y por mucho que queramos la única forma de aligerarlos es mejorar el ipc de los núcleos, que también tiene sus límites.
    Salu2.

  • Gregorio Ros

    Una cosa es la capacidad del material en cuanto a velocidad de conmutación, otra es ser capaces de trabajar el material a determinadas densidades de integración. Luego a determinadas frecuencias la señal es que te salta de una pista a otra, cada pista se transforma en una antena, complicando el mayusculamente el diseño. Lo interesante es si el grafeno se calienta menos, eso permitiría la apilación de mas capas.

  • Francisco

    quiere decir esto que nos venderán refritos durante un tiempo hasta que encuentre la manera de fabricar con otro material. o ya tienen algo y lo único que hacen es dar excusas para vendernos esos refritos..xD

  • Leonmafioso

    EL procesador Pentium IV extreme edition funcionaba a 3.8 ghz, tuve uno de arquitectura Cedar Mill que era una plancha, pero no tanto como los Prescott a 90nm.

  • Medina Martinez

    me parece bastante interesante lo que dices, pero como afecta la velocidad de la luz a componentes que no se basan en uso de la luz? sera que me lo puedes aclarar por favor

  • Nicolas

    La velocidad de la luz es un nombre para la velocidad más alta que se conoce, en efecto, la de la luz, la cual está dada en forma de partículas (foton), hasta ahora la partícula más rápida. La electricidad (la cual usan todos los dispositivos/componentes electrónicos) está basada en partículas también, solo que en este caso son electrones. Inclusive si se encuentra una manera más rápida de transportar información (como se hizo en infraestructuras de red con la fibra óptica que en esencia es luz, o sea, un foton), el límite sería la velocidad de la luz, ya que la única partícula de la cual se tiene teorías de que puede ser más rápida que un foton, aun no ha sido descubierta en forma tangible (antimateria). Por esto mismo, la mayor velocidad que conoce el ser humano hasta la fecha, y por la cual aparentemente se rige el universo, es la velocidad de la luz. Que una partícula no tenga luz no significa que no tenga velocidad, y el hecho de que se llame «velocidad de la luz», no significa que es una velocidad y ya, una constante, realmente dicha velocidad se me atribuye a una partícula en especifico (foton). Por tal motivo la medida años luz es de distancia y no de tiempo como mucho bruto imbecil (dicese de la clasificación en el DSM para una persona con un coeficiente intelectual igual o inferior a 80), sino la distancia que recorre un foton (a la «velocidad de la luz») en el transcurso de un año

  • Víctor Martín

    La antimateria no tiene nada que ver con eso, la antimateria es teóricamente materia con características opuestas, por ejemplo el antielectrón (o positrón) tiene la misma masa y espín que el electrón pero tiene carga positiva (importante, misma masa, osea masa real), el neutrón y antineutrón son iguales pero solo cambia el sentido del campo magnético (digo «teóricamente» por que hay suposiciones de que la materia y la antimateria no son partículas exactamente opuestas).
    Y la antimateria existe, no es nada teórico, la antimateria la descubrieron hace mucho tiempo y actualmente y desde hace unos 20 años se utiliza antimateria en el CERN, es mas, también se puede producir antimateria, en el CERN utilizan átomos de antihidrogeno por ejemplo (y los fabrican).

    Las únicas partículas capaces teóricamente de ir mas rápido que la velocidad de la luz no se han demostrado que existen, solo existen teóricamente por que según las ecuaciones de la teoría de la relatividad de Einstein, es posible que haya partículas con velocidades superiores a la velocidad de la luz, lo que no es posible seria cruzar la barrera de la velocidad de la luz por que para acelerar a una partícula con masa diferente a la de los fotones a la velocidad de la luz haría falta una energía infinita, lo que dice Einstein es que no se puede cruzar el umbral, pero si puede haber partículas que siempre vayan a velocidades superiores a la de la luz, y lo que es imposible en ese caso es decelerar estas partículas para que lleguen al umbral, por las mismas ecuaciones que dicen que se necesitaría energía infinita.
    Pero no es la antimateria, las partículas teóricas que van mas rápido que la velocidad de la luz son los taquiones, la antimateria tiene masa real, con lo cual no puede ir a la velocidad de la luz, los taquiones tienen masa imaginaria, con lo que si podrían cumplir las ecuaciones con velocidades superiores a la velocidad de la luz

  • Gregorio Ros

    La velocidad de la electricidad es la misma que la de la luz, por defecto se simplifica a la de la luz, pero si cambias «velocidad de la luz» por «velocidad de la corriente» en mi comentario veras que toma sentido. Ademas hay otro factor «longitud de onda» que corresponde a la distancia recorrida en el tiempo de un ciclo, se usa para calculo de antenas de radio, hay mucha información al respecto p.e. en la wikipedia o libros de electrónica. Con esto ves que a estas frecuencias casi cualquier pista metálica de la placa base se transforma en una antena, diseñar una placa de estas llega a ser un autentico dolor de cabeza para los técnicos, la señal salta de una a otra sin control. Esto nos lleva indudablemente a ver a los chips multicapa como la posible solución, reducimos la distancia y por consiguiente el tiempo a una fracción. Una posible alternativa que soluciona parte del problema, el de la interferencia entre pistas por la longitud de onda, sería emplear microprocesadores ópticos, continuaríamos teniendo el retardo por la distancia pero no las interferencias, una pena que no se vean avances en ese aspecto.
    Un saludo.

  • miguel pozos

    Pero el precio será de novedad😁

  • Nicolas

    No, la antimateria no ha sido materializada, en eso estas equivocado, y por lo que entiendo se cree que la antimateria puede cumplir con los requerimientos para dicha ecuación. Si se que se ha logrado materializar antimateria por períodos de tiempo inferiores a 1 mili segundo, tiempo tras el cual colapsa bajo su misma masa y desaparece

  • Víctor Martín

    No se a que te refieres al decir que la antimateria no ha sido materializada, pero la antimateria ya ha sido posible aislarla desde hace muchos años,incluso es posible «crearla», de echo ya se hace, desde hace también muchos años. Ya esta completamente demostrado, incluso se sabe que tipo de radiación se emite al colisionar la materia con antimateria (una de las muchas cosas por las que se decía que el CERN podría crear un agujero negro, es por que al colisionar materia con antimateria se genera una cantidad de energía enorme, y hasta hace pocos años, menos de 10, nunca se había hecho colisionar materia con antimateria, y uno de los miedos que había era precisamente que en la colisión se generara una cantidad de energía mucho mayor a la cantidad que se teorizaba, pero a día de hoy ya se producen colisiones controladas de materia-antimateria),incluso se ha demostrado ya que tipo de radiación produce estas colisiones…
    Evidentemente queda mucho por investigar sobre la antimateria, pero a día de hoy ya esta demostrado que existe y ya se utiliza, incluso ya se están investigando tratamientos contra diversas enfermedades con antimateria (como con el cáncer por ejemplo).

    Y respecto a lo de la velocidad de la luz, teóricamente, según la teoria de la relatividad, nada que posea masa real es posible que alcance la velocidad de la luz, de echo, según esta teoría no es posible que nada llegue a la velocidad de la luz, las únicas partículas capaces de hacer esto teóricamente son los taquiones, que tienen masa imaginaria (al decir imaginaria supongo que todo el mundo entiende que no me refiero a los mundos de yupi que se puede imaginar cualquiera XD me refiero evidentemente al concepto matemático de números imaginarios, osea múltiplos de i). Y solo es posible cumplir las ecuaciones de maxwell si la velocidad de la partícula es inferior a la velocidad de la luz, la masa es representada por los números enteros (incluye materia y antimateria, que tienen masa real) y si la velocidad es superior a la de la luz, la masa viene representada por números imaginarios (taquiones, y no esta demostrada la existencia de taquiones… de momento solo están teorizados), y por supuesto no es posible que cruce el umbral de la velocidad de la luz, esto es por la teoría de la relatividad general de Einstein.

    Pero insisto, lo de partículas con velocidades superiores a la velocidad de la luz, y toda la teoría de Einstein, es eso, teoría, matemáticamente es posible, pero no esta demostrado que esto sea real. La existencia de los taquiones es teórica, pero la existencia de la antimateria esta totalmente demostrada (has dicho que solo ha conseguido existir durante 1 milisegundo… eso es todo un mundo, en 1 milisegundo la luz recorre 300km… una distancia suficiente como para dar cientos de vueltas al acelerador de partículas… 1 milisegundo hablando de estos temas es una exageración, hay muchos minerales que duran muchísimo menos tiempo que eso antes de desintegrarse… en una cienmillonesima parte de 1 milisegundo colisionando materia y antimateria podrías generar un agujero negro tan grande que se tragara toda la tierra en ese tiempo… de echo era una de las cosas que se temía hace unos pocos años). Si nos basamos en la física actual, la materia y la antimateria no pueden superar la velocidad de la luz, los taquiones son partículas teorizadas que matemáticamente podrían existir pero no se sabe nada. Y si ya nos ponemos a teorías mas rocambolescas, hay ciertas teorías que dicen que hay partículas capaz de convertir su masa imaginaria en real y viceversa, por lo cual al cambiar de masa podría cruzar la barrera de la velocidad de la luz (aun que para ello tendría que convertirse en fotones para cruzar dicho umbral), y después también hay teorías super locas donde hay cierto tipo de partículas que pueden tener a la vez masa real y masa imaginaria y podrían ser una cosa u otra depende del observador, pero esto ya es muy loco jajajaja, pero todo esto son teorías que simplemente tienen una lógica matemática detrás, y que tienen cierta base en la teoría de la relatividad de Einstein, que igualmente es una teoría, pero que hasta día de hoy funciona.

  • Víctor Martín

    Yo creo que eso de 5nm es una valoracion personal de la noticia… yo creo que se estan refiriendo a posteriores avances post-silicio, se supone que se esta llegando a los limites teoricos ya, pero eso no quiere decir que de aqui a 10 años no pueda haber una nueva aleacion de produccion escalable a la que no le suponga ningun reto bajar de los 5nm…
    De todas formas incluso puede que haya sido un poco de «publi» por parte de AMD, para justificar una arquitectura nueva y soluciones nuevas a este problema que puede que este lejos de ser un problema real a corto plazo (por que no creo que se produzca mucho este problema en el salto de 7 a 5 nm…)

  • Cristian Gabriel Silletta

    Lo que sea que esten fumando debe ser muy bueno xD
    Por qué mejor no hacen algo más simple como transmitir la información usando antitaquiones mediante el uso de nanoagujeros de gusano fabricados simplemente a través de la vibración de cuerdas cósmicas? no sería más fácil?
    Y para acelerar más la cosa podríamos ejecutar procesos paralelos en nanouniversos paralelos, no sería viable? xD

  • Alberto

    El futuro de las CPUs sin duda va a ser una cosa interesante de ver, porque no tengo dudas que van a conseguir encontrar una forma las empresas, centros de investigación o quien sea para permitir que se siga mejorando sobremanera, aunque sea cambiando el concepto tradicional de CPUs que tenemos, me parece fascinante.
    Sigo esperando a que se presenten los RYZEN 3000 para PC, porque quiero al menos 2 de esos, 1 para mi PC y 1 para montarme mi server.
    Saludos.

  • gustavo m

    «Ya no se puede aumentar mas Mhz» y «Las ventajas que ofrecen las reducciones de proceso en términos de densidad de transistores también son cada vez menores.»
    ¿Estamos llegando al limite del Silicio?

  • Jaime A.G.

    En la categoría software les faltó la palabra OPTIMIZATION (Optimización), que llevamos unos añitos ya con software optimizado como el culo, cada vez más recursos para hacer lo mismo y eso al final evita que veamos todo el potencial del hardware.

Lo más leído