Web Analytics
Conecta con nosotros

Noticias

Intel explica por qué las CPUs aún no han superado los 10 GHz

Publicado el

Casi desde los inicios de la informática moderna basada en los transistores gigantes como Intel y AMD se embarcaron en la carrera de los MHz, una competición que nos dejó logros tan importantes como la llegada del primer procesador a 200 MHz y la ruptura de la barrera de los 1.000 MHz (1 GHz), aunque todavía no hemos llegado a superar los 10 GHz.

En efecto, la barrera de los 10 GHz (10.000 MHz) de frecuencia sigue siendo un objetivo que todavía ha sido imposible de cumplir. Ni siquiera los overclockers más capaces del mundo han podido llegar a los 9 GHz utilizando nitrógeno líquido, y francamente no creemos que vayamos a poder superar ese «muro» en CPUs de consumo general con métodos de refrigeración tradicionales.

¿Pero por qué es un «imposible? Victoria Zhislina ha dado una interesante respuesta en la «Intel Developer Zone», donde ha comentado:

«Existe una opinión entre los expertos de que el aumento de la frecuencia de trabajo dará como resultado emisiones de calor muy elevadas. Otros piensan que se podría usar un interruptor que aumente la frecuencia en función del nivel deseado. Pero también existe una gran preocupación de que el aumento de la frecuencia elevare la temperatura de la CPU tanto que acabe provocando una fusión física real. En cualquier caso debemos tener en cuenta que muchos fabricantes de CPU no permiten que se produzca una fusión, ya que suis procesadores tienen monitores de temperatura internos que apagarán la CPU antes de que ocurra.

 

Esta opinión es expresada por los usuarios de computadoras y además ha sido probada por overclockers, ya que para doblar la frecuencia de trabajo de procesadores actuales necesitan conectar un sistema de enfriamiento tan potente como sea posible».

En resumen, que no hemos llegado a los 10 GHz porque no es una manera eficiente y realista de mejorar el rendimiento de un procesador, especialmente por las enormes temperaturas de trabajo que alcanzaría un chip a esa velocidad y que no podríamos disipar con métodos convencionales.

Más información: DvHardware.

Editor de la publicación on-line líder en audiencia dentro de la información tecnológica para profesionales. Al día de todas las tecnologías que pueden marcar tendencia en la industria.

23 comentarios
  • Ryutsuki Sonoda

    hace como 7 años yo pensaba que a estas alturas estariamos en los 5 Ghz xd

  • alxSoft

    Me conformo con matrices más grandes de núcleos mejor integradas, mejor escalado multinúcleo y unos 6GHz!!… será mucho pedir?

  • David Mendoza

    Tal ves con algún descubrimiento de alguna aleación que no tenga tanta resistencia y que su temperatura de fusión sea mucho mayor

  • Hector MA

    No me puedo imaginar por qué esto es importante.

    Mejor más núcleos y arquitecturas más eficientes, además de mejores chipsets en la mother y SSD más rápidos y eficientes.

    Si optimizan los procesos de suspensión e hibernación más que servidos.

  • pablo jordan

    Habla de una fusión atómica? o una fusión del encapsulado?

  • Isidro Ros

    Fusión por calor cuando un cuerpo pasa de estado sólido a líquido. Dicho mal y pronto que se «derrita» el procesador.

    Saludos.

  • Víctor Martín

    Nonse hace por qué no es rentable, es mucho más rentable y eficiente optimizar los ciclos útiles y meter más núcleos, si quisieran claro que podrían sacar un procesador de 1 núcleo a 10ghz… No tendrían ningún problema, pero no tiene ningún sentido. Mucho más barato meter más núcleos menos potentes, y a demás, más fiable, menos consumo… Todo mejor, y más aún en lo que se está avanzando ahora y es en mejorar los ciclos útiles, de nada te vale que tú procesador pueda hacer 10kkk instrucciones por segundo, si el 90% de las instrucciones son vacías por esperas de trabajo y demas… Mucho más eficiente mejorar esas 2 cosas que la frecuencia, que poder podrían, pero sería absurdo

  • Gregorio Ros

    Por desgracia no todos los procesos pueden sacar partido al aumento de núcleos, pero si de el aumento de frecuencia.

  • Gregorio Ros

    Estamos en el límite de la velocidad de la luz. Puede que 300.000Km nos parezcan mucho a nosotros, pero a 3GHz apenas si tenemos una longitud de onda de 10cm, ya es que hay que esperar varios ciclos mientras la CPU pide un dato a memoria y regresa el resultado (independientemente del retardo de la memoria). Por otra parte a esas frecuencias cualquier pista de cobre es una antena.

  • nem
  • nem

    esto de la carrera de los gigahertz depende de varios factores , entre estos el principal es el diseño de la arquitectura y la cantidad de transistores que inyectan en un área determinada , existieron arquitecturas como los bulldozer con pobre IPC pero que el diseño les permitía llegar hasta los 9GHZ con nitrógeno , no tengo tiempo de tirarme a buscar ejemplos concretos con fotográfias , pero esto esto es resultado de la densidad de transistores en un unidad de área determinada,

    link http://www.tomshardware.com/news/amd-fx-8150-overclock-9ghz-bulldozer,15853.html

    https://uploads.disquscdn.com/images/5747d0812196a251da4e071f23869a81600dfc36f337ba6d71882f645ecc9989.png

    También influye el proceso litográfico tal vez seria es el segundo factor , ejemplo intel usa en sus procesadores la mejor litografía enfocada al alto rendimiento sus siglas HP high performance, AMD en los ryzen emplea LPP de Globo que es un proceso litográfico diseñado para el mercado Mobil y la eficiencia energética, por esta razón los ryzen OCEAN poco pero en contraparte soy muy eficientes energéticamente, otro factor intel invierte mucho mas en depurar sus litografias , es toda una cadena de factores que influyen en las frecuencias, resumiendo todo , es que ya se a alcanzado los limites del silicio , los procesadores actuales van a limite para conseguir subir mas las frecuencias habria que invertir mucha mas pasta en realizar mejoras , globo podría mejorar pero debería invertir mucha mas pasta en su procesos litográficos que no compensa las ganancias,

    las arquitectuas de intel y amd no son comparables en términos de gigahertzios, desde los pentium 4 tenían un Pipeline muy largo pero para ser muy eficiente procesando instrucciones requerían frecuencias muy altas , así fue el diseño de intel en esos años no era comparable al diseño de los Athlons 64 de esa época eran mas lentos, con frecuencias mas bajas eran igual de eficientes que los pentium 4 en algunos casos incluso eran mejores mas eficientes se puede ver en reviews de la época.

  • Adrián Ramón Plá

    Pero Intel había dicho que tendríamos procesadores a 10Ghz en 2005 con la arquitectura Netburst (Pentium 4)!!!!! Que pasó ingenieros que pasó! Jajaja, mejor se hubieran quedado calladitos!

  • Adrián Ramón Plá

    No se puede, tal vez los transistores tienen que ser mas grandes, el die ocupar un tamaño superior al actual para hacer mas fácil la disipación con las actuales tecnologías de fabricación… es como tú dices, es mejor optimizar las arquitecturas disminuyendo la densidad de los transistores para hacer todo mas eficiente antes que tengan altísimas frecuencias…

  • david salsa

    los coches de F1 tienen motores pequeños, lo que hacen es poner más cilindros.

  • Ray

    De que vas?

  • Ray

    Mejor ipc y a tomar por saco todo lo demas…………

  • Gregorio Ros

    Cierto, se puede mejorar el ipc, pero tiene tambien su límite y ya estan muy cerca de él.

  • Ray

    Eso lo se pero el ipc siempre sera mejor que Ghz sin sentido……….. vease lo que paso con los Fx.

  • walter11av

    aunque parezca mentira, estas empresas ya tiene planeado lo que sacaran al mercado unos cuantos años antes. puede que lleguemos a ver procesadores a 5 o 6ghz

  • Gregorio Ros

    Lo se, pero estamos cerca del límite del ipc, la densidad de integración ya cuesta mejorarla y la frecuencia ya es tan rápida que está en el límite de la velocidad de la luz. El último termino, pasado por alto por la mayoría, es el que mas jode la ecuación, si haces cálculos en el tiempo en que hace un ciclo de reloj a 3GHz la electricidad apenas recorre 10cm, una instrucción de carga de cualquier dato o instrucción a memoria tiene que recorrer mas distancia, tanto en la petición como para leer el dato (independientemente del tiempo que tarda el chip de memoria en tener disponible el resultado) de aquí la importancia de las caches del micro. Cuando aumentamos la densidad de integración no solamente metemos mas transistores, sino que reducimos las distancias y los tiempos, por lo menos dentro del micro, el problema es que a determinadas frecuencias cualquier pista se transforma en una antena emisora y receptora de la señal, ¡Mala cosa, por eso si enfriandolo se soluciona!. Espero que la respuesta no sea muy latosa, pero la electrónica tiene esos peros, luego las compañías y los ingenieros lo maquillan con términos como «fusión física real», «emisiones térmicas», etc. que, siendo ciertas, lían mas que aclaran al personal.
    Un saludo.

  • lol

    no es el tamaño es el como es fabricado y con que materiales.

  • Andres Antayhua

    Ja ja, primero que pasen la barrera de 4 Ghz que desde hace casi 20 años no se puede superar!!
    Pónganse a pensar, existe alguna computadora en el mundo que vendan (octubre 2019) con velocidad superior a 4 GHz? Ninguna porsupuesto!! Entonces como hablan de 10GHz?

  • Andres Antayhua

    Otra cosa es que esta velocidad de proceso no la usamos la mayoría de usuarios de computadoras, cuando estamos en Excel el CPU está casi en sleep, cuando usamos otros programas de oficina también, solo cuando usamos juegos 3D tiene que despertarse el CPU y también obviamente el GPU.

Top 5 Cupones

Lo más leído