Web Analytics
Conecta con nosotros

Noticias

La Ley de Moore está muerta, dice el jefe de NVIDIA

Publicado el
Ley de Moore

La Ley de Moore definió la estrategia de negocios en la industria de semiconductores, permitió la aparición del microprocesador y más tarde del ordenador personal. Una ley (más económica que tecnológica) promulgada el 19 de abril de 1965 por el ingeniero y co-fundador de Intel, Gordon E. Moore, que cumplió 50 años en 2015 y que enuncia que la industria podría reducir las dimensiones del transistor en aproximadamente un 50% a un costo más o menos fijo, produciendo así dos veces más transistores por el mismo costo (o el mismo número por la mitad de su coste).

La Ley de Moore ha impulsado la revolución tecnológica de las últimas décadas, pero hay debate sobre su aplicación actual. Cada vez es más difícil cumplirla a medida que nos acercamos a los límites del silicio y no saltemos a otros materiales como el grafeno. De hecho, el mismo Moore no aseguró que durara para siempre. Y como en su inicio, acabará no por tecnología sino por costes.

EL CEO y fundador de NVIDIA, Jensen Huang, ha entrado en el debate «arrimando el ascua a su sardina» al asegurar que el poder de cómputo de las GPUs y el declive de la CPU, ha matado ya a la Ley de Moore.

Según el jefe de NVIDIA, mientras que el número de transistores de las CPU ha crecido a un ritmo anual del 50 por ciento, el rendimiento de la CPU ha avanzado en sólo un 10 por ciento. Además, asegura que los diseñadores casi no pueden trabajar en arquitecturas avanzadas que empleen instrucciones en paralelo para la CPU y, por tanto, las GPU pronto reemplazarán a las CPUs.

NVIDIA dice que los gigantes minoristas chinos Alibaba, Baidu, Tencent, JD.com e iFLYTEK, han desplegado soluciones NVIDIA Volta para soportar sus servicios en nube, mientras que Huawei, Inspur y Lenovo han desplegado servidores HGX basados en sus gráficas.

Como era de esperar, Intel no está de acuerdo con estas afirmaciones y esgrime el avance a procesos tecnológicos de 10 nanómetros para extender la Ley de Moore.

Coordino el contenido editorial de MC. Colaboro en medios profesionales de TPNET: MCPRO, MuySeguridad, MuyCanal y Movilidad Profesional.

14 comentarios
  • Daniel Montoya Morgan

    «por tanto, las GPU pronto reemplazarán a las CPUs.» esto me tiro para atras, eso nunca podria ocurrir

  • Raciel

    Basicamente los dos son procesadores, a diferencia que la gpu usa números imaginarios o matematica irreal, o dicho de otra forma de «punto flotante»… la definicion numeros imaginarios o numeros imaginarios por parte de wikipedia: Los números imaginarios son aquellos que, de acuerdo a la lógica convencional, no pueden existir. Sin embargo, pueden ser el resultado de operaciones matemáticas comunes. basicamente un GPU si puede realizar las mismas operaciones basicas de un CPU.

  • Puchalawea

    Nunca digas «nunca».

  • Vanesa Fernandez

    Que dices alma de dios? los numeros de punto flotante (float, double) son los numeros reales de toda la vida en matematica. No tiene nada que ver con GPU y CPU y los dos procesan los mismos tipos de datos en programacion. Ninguna de las dos usa numeros imaginarios (o complejos), y cuando lo usan es a travez de software.

    La diferencia esta en la arquitectura, no en los datos que usan.

  • Adrián Ramón Plá

    Hace años que el chino Jensen dice ésto y ahí siguen las cpus como cerebro principal….

  • Adrián Ramón Plá

    El chino Jensen mete púa justo en el momento que Intel está apretada por AMD…. momento ideal para hacer valer aún mas a su compañía Nvidia…. juega sucio el chinito éste jaja….

  • blablablabla.

  • Víctor Martín

    La principal diferencia es para que se utilizan, si te metes un poco en el fregado de paralelizacion, las graficas funcionan increiblemente bien (a dia de hoy una grafica normal tiene mas de 1.000 nucleos cuda trabajando en paralelo), que si entras un poco en materia cada nucleo hace operaciones super sencillas, no son para nada potentes, lo que hace que en si las gpus tengan mucha potencia es que tienen cientos o miles de procesadores trabajando en paralelo. Para tareas que permitan paralelizacion de instrucciones de grano fino (osea que se puedan hacer muchas instrucciones a la vez sin que haya dependencias entre ellas y puedas asignar una a cada nucleo sin tener que esperar unas con otras), para esto es super eficiente una gpu con muchisimos nucleos

    por ejemplo, al procesar una imagen, procesas pixeles por separado, pero para procesar cada pixel no se necesita apenas potencia. Una fotograma en resolucion FullHD tiene 2.073.600 pixeles, que cada pixel por separado se procesa muy rapido, pero son muchos pixeles, mas de 2 millones… entonces aqui viene muy bien tener muchos nucleos con poca potencia cada uno, por que puedes procesarlos por separado.

    Sin embargo hay programas que no pueden paralelizarse a penas, por ejemplo tienes un procesador con 8 nucleos con 16 hilos simultaneos, lanzas una tarea que en principio puede paralelizarse y utilizar los 16 hilos, pero claro, si para poder ejecutar un proceso necesitas datos de otro proceso, entonces tienes mucho tiempo un nucleo sin trabajar, por lo tanto te da igual tener 8 nucleos que 2.000, por que hay cosas que no se pueden paralelizar, y aqui lo que se busca es potencia por cada nucleo, no tener muchos nucleos

    Esa es la principal diferencia, para aplicaciones muy paralelizables se utilizan las graficas, con cientos o miles de procesadores pequeños que cada uno realiza una pequeña operacion matematica sin mas (como por ejemplo lo que te he dicho, procesamiento de imagenes, o tambien ahora que esta muy de moda la mineria de criptomonedas, que tambien utiliza operaciones muy simples pero en grandes cantidades). Y para aplicaciones no sean muy paralelizables se utilizan nucleos mas potentes con menos nucleos (si tienes 2 procesos y el segundo tiene que esperar por el primero a que este le de un dato, entonces lo que buscas es potencia por nucleo y que consigas el primer dato lo antes posible para empezar con el segundo proceso).

    La gestion de un sistema operativo por ejemplo requiere mucha potencia, y no le afecta a penas la paralelizacion, por lo que es mucho mejor tener pocos nucleos pero muy potentes que muchos nucleos sin ninguna potencia, por que constantemente hay veces que un proceso se tiene que quedar esperando a otro

    Por eso mismo es imposible que las gpus sustituyan a las cpus, hay problemas que no son apenas paralelizables

    Resumen:

    CPU -> pocos nucleos muy potentes, perfecto para procesos no paralelizables (gestion de un so)

    GPU -> muchisimos nucleos con muy poca potencia cada uno, procesos muy paralelizables (procesar imagenes)

  • Amir Torrez

    Hay más humo en NVidia que en mis «reuniones».

  • AMD saca una actualización de unos megas y hace rendir hasta 40% mas procesadores o graficas, incluso de viejas plataformas. Intel y Nvidia lanzan una actualización de cientos de megas, no optimiza nada e incluso resta rendimiento del producto recién lanzado…

    Y luego Nvidia dice que Radeon son vetustos… ¬.¬

  • Puchalawea

    Se nota que no saben nada del tema. Les explico:

    -Los puntos flotantes son flotantes porque flotan.
    ¿Qué los hace flotar? He ahí la cuestión. Si lo saben se llevan un Grammy.

  • Leonmafioso

    De qué fumaste? float habla de operaciones con decimales.

  • Benito Camelas

    Las leyes llega un momento en el que se quedan obsoletas y hay que actualizarlas de acuerdo a los nuevos cambios que experimenta la sociedad, pero bueno, esta no es legítima, tan solo una declaración de intenciones de una compañía, asi que… es probable que ya no puedan seguir usándola cómo cuña publicitaria «vale lo mismo y es el doble».

    En cuanto a CPU o GPU, no estoy muy puesto en hardware, pero si utilizas una Unidad de Procesamiento Gráfico ( GPU ) cómo Unidad Central de Procesamieto ( CPU ), mi lógica me dice que vuelves una CPU el hardware que antes era destinado a GPU, que las tarjetas gráficas son más potentes ? , eso parece, pero en cuanto no las usas para gráficos dejan de ser GPUs o en todo caso un híbrido.

    Pero bueno ya aclaro que no soy un experto en hardware y si álguien sabe del tema le agradecería que me lo aclarase, mas hace ya años que las tarjetas gráficas se vienen usando para romper cifrados, por algo será…

  • Daniel Montoya Morgan

    no es cosa de querer es poder, o algo parecido es limitacion dada por su definicion, GPU es un cooprocesador para la Cpu, su arquitectura para las tareas que realiza la cpu poco sirve

Lo más leído