Web Analytics
Conecta con nosotros

Noticias

El SoC Apple A14X costará casi cuatro veces menos que un Core i3 10110U

Publicado el
Apple A14X

La compañía que dirige Tim Cook afrontará una transición muy importante con el abandono de los procesadores Intel x86, y el SoC Apple A14X se perfila como uno de los pilares más importantes de la primera etapa «post-Intel». No hablamos sin motivo, este podría ser el primer chip que utilizará la firma de la manzana mordida en lugar de los Intel Core de bajo consumo, y según una reciente filtración que nos llega desde China tiene una pinta bastante prometedora.

Según fuentes dentro de la cadena de suministros del sector smartphone el SoC Apple A14X estará fabricado en proceso de 5 nm, contará con un total de 15.000 millones de transistores y ofrecerá un rendimiento muy elevado, gracias a la capa de personalización que añade Apple sobre la arquitectura ARM. La configuración de núcleos no ha trascendido, pero teniendo en cuenta que el SoC Apple A12Z ya monta ocho núcleos tenemos dos grandes posibilidades:

  • Más núcleos: el Apple A14X podría venir configurado con 12 núcleos en una apuesta clara por mejorar el rendimiento multihilo del chip.
  • Mejoras a nivel de arquitectura y mayores frecuencias: dicho chip también podría mantener el conteo de núcleos del Apple A12Z, pero mejorar en rendimiento bruto a través del IPC y de un aumento de las frecuencias de reloj.

Ambas opciones tienen sentido, tanto que no me «atrevo» a decantarme por ninguna. Con todo, os recuerdo que los últimos rumores que vimos hablaban de un total de 12 núcleos.

El SoC Apple A14X costará casi cuatro veces menos que un Core i3 10110U 30

Reducción de costes: el gran valor del SoC Apple A14X

Aportar por ARM en lugar de Intel para potenciar sus equipos Mac (en sentido amplio, es decir, tanto equipos de escritorio como portátiles) ha sido una decisión muy acertada por parte de Apple, y por muchas razones. Ya conocemos algunas de ellas, por ejemplo, al utilizar sus propios SoCs la compañía de la manzana puede controlar mejor los ciclos de renovación de sus productos, las innovaciones que introduce en estos y ejercer un mayor control sobre su ecosistema de hardware.

No debemos olvidar que este movimiento de Apple ha sido un golpe para Intel, pero también para AMD, ya que la compañía de la manzana mordida utilizará sus propias GPUs. Sin embargo, no todo se limita a ese control y al dejar «todo en casa», los costes también importan, tanto que podrían justificar por sí solos el salto a ARM.

Para muestra un botón, y es que según la fuente de esta noticia el SoC Apple A14X tendría un coste de fabricación aproximado de 75 dólares. ¿Deberías estar impresionado? Pues lo cierto es que sí, ya que un Core i3 10110U tiene un coste, en pedidos de mil unidades, de 281 dólares. Como puedes ver la diferencia de precio es considerable, y el chip de Apple debería ser más potente que ese Core i3 10110U.

Con el salto a sus propios SoCs Apple cierra el círculo, establece un control casi total que opera a nivel de hardware y de software, reduce los gastos y deja en casa una parte importante de los costes que debía asumir al utilizar CPUs Intel. Es un «win-win» para la compañía de Tim Cook, de eso no hay ninguna duda.

Editor de la publicación on-line líder en audiencia dentro de la información tecnológica para profesionales. Al día de todas las tecnologías que pueden marcar tendencia en la industria.

10 comentarios
  • mirage

    y vuelto a lo que dije en post anteriores sobre el tema: Con ARM se puede conseguir una potencia igual o superior a las gamas medias de los pc actuales. Simplemente es una arquitectura mucho más eficiente y con un escalado mucho mejor, no me extraña que haya tantos esfuerzos para que ARM pase a la sobremesa. la arquitectura x86 lleva decadas estancando el rendimiento de la industria.

  • prisciliano

    Quizá es cosa mía, que además de no ser usuario de Apple, no soy experto pero me encanta este paso, la verdadera convergencia móvil/PC puede venir por aquí no? Denme collejas si estoy equivocado

  • Creo que el problema es la retrocompatibilidad. Si se decidiera crear una arquitectura totalmente nueva, creo que se avanzaria mucho mas rapido a cambio de tener que recompilar/adaptar todo el software existente

  • Apple aprovecha sus ventajas de escala. Tiene un producto tan masivamente vendido que cualquier independencia se torna un ahorro exponencial

  • Medina Martinez

    con esto el catalago de juegos se pierde para mac? me pregunto como haran con las gráficas y todo lo que ello implica, no creo que las graficas que puedan desarrollar esten a lla altura de amd o nvidia y esto me lleva a otra pregunta como haran para el entorno profesional con eso….?

  • Víctor Martín

    Es una arquitectura mucho más eficiente pero mucho menos potente (ojo, hablo de arquitectura, no de procesador, un buen procesador con una arquitectura poco potente puede ser más potente que un mal procesador con una arquitectura muy potente). Pero arm en sí es prácticamente un subconjunto eficiente de x64… O viendolo de otra forma, x64 es como arm a la que se le suman instrucciones que son mucho más potentes pero menos eficientes. (Tu puedes hacer una operación con 20 instrucciones de 1 segundo cada una, que cada instruccion es muy simple y que use muy pocas puertas lógicas casa una, o puedes hacer el mismo cálculo en una sola instrucción de 10 segundos, mucho más rápida, pero necesitas más puertas lógicas que si lo hicieras por separado, entonces es más rápido pero menos eficiente, eso es ARM contra x64, evidentemente es una explicación muuuy por encima xD pero es para que se entienda, los conjuntos de instrucciones que utiliza hoy en día Intel (y también AMD, pero menos) son super potentes, sobre todo en cálculos vectoriales, pero también en muchas más cosas, y esas instrucciones, arm las hace con instrucciones más lentas pero más eficientes)

  • Víctor Martín

    Cómo diría Michael Scott, no tiene que ser un win-win, es un win-win-win.
    Win 1: fabrican ellos, luego tienen más control, incluso seguro que complica mucho más la fabricación casera de hackintosh, lo que hará que tengan más ventas. Hará que todos los procesadores de todos sos dispositivos sean más parecidos, lo cual les simplifica mucho más todo y les da mucho más control sobre todo

    Win 2: reducen costes, no solo por qué el procesador sea más barato, si no por qué ahora también los fabricarán los mismos que fabrican sus procesadores de otros productos, y no es lo mismo ir a tsmc y decirle, fabricame 200 millones de procesadores este año, que decirle que fabrique 250 millones… Más reducción de costes todavía.

    Eso está dicho, pero falta el último win, y es que te lo venderán como muchísimo mejor nuevo y súper revolucionario, lo cual, no me cabe duda, lo que van a hacer es venderlo más caro (aun que reduzcan costes, estoy seguro que los precios no los van a reducir). Si te venden un Intel, te venderán algo que tiene todo el mundo en cualquier ordenador, así, te venderán algo que solo puedes comprarle a ellos…

    Teniendo el mercado que tiene Apple, era lógico que este paso se iba a dar más temprano que tarde… Lo que no tengo tan claro es si van a cumplir las expectativas del sector profesional… Pero seguro que sí ha dado el salto es por qué lo tiene todo bajo control, Apple no da palos en ciego

  • mirage

    lo sé, pero al ser ARM más eficiente puede permitirse usar más nucleos o ir más rapido y aun así sufrir menos temperaturas, además que al tener una densidad de compuertas mucho menor que x86 es más facíl disminuir los procesos de fabricación. ya se esta viendo que THCM tiene ARM en 5n mientras que con x86 con mucha dificultad llegaron a los 7 (e intel sigue varado en los 14nm) al final creo que la eficiencia le ganará a la potencia bruta.

  • mirage

    para agregar a mi replica anterior. con ARM se facilita modular por nucleos las funciones del procesador, así por ejemplo a la hora de tener que haer calculos matriciales (generalmente es lo que se hace para procesar video e imagenes) en lugar de tener un procesador muy potente o una grafica dedicada a ello lo que podes hacer es tener en el mismo chip nucleos enfocados a ese tipo de tarea y que se activen solo cuando es necesario, de esa manera en lugar de tener el procesador lleno de instrucciones basura que lastran el rendimiento eneral ya que son de uso especifico, tienes nucleos enfocados a distintos procesos y que se activan a demanda, es decir es una forma mucho más eficiente y ya que usas núcleos dedicados el rendimiento hasta podría ser superior. tambien al tener un numero inferior de operaciones la cantidad de ram que cada proceso ocupa es menor y un largo etc. yo por mi parte estoy más que feliz que por fin RISC se tome la computación personal. Es una arquitectura más eficiente, felxible y escalable que nos permitirá alcanzar un rendimiento igual o incluso superior al actual de manera más eficiente, laptops más potentes con menores tamaños, menor consumo, menor temperatura, etc.

  • Víctor Martín

    completamente de acuerdo, de echo los nucleos potentes en muchos casos no merecen la pena, una gpu puede tener 5.000 nucleos y cada nucleo poder ejecutar un puñado de instrucciones basicas y ultra eficientes, de echo es la única diferencia entre nucleos de cpu y gpu, los de gpu no son nucleos potentes, Depende del uso que le vayas a dar a cada nucleo te hace falta o no mas potencia o mas conteo de nucleos a menor potencia. Para calculos de simulaciones se suelen utilizar muchos nucleos poco potentes, ya que suelen ser calculos vectoriales pequeños que se hacen para cambiar de posicion pixeles o simplemente datos. Una GPU a dia de hoy las instrucciones que manejan son super simples, pero para hacer ciertos calculos matematicos y cualquier proceso altamente paralelizable, no se necesitan nucleos potentes, si no muchos nucleos. Para otras cosas que no sean tan paralelizables te hace falta potencia, de poco te vale tener 5.000 nucleos si solo puedes paralelizar de forma eficiente 4 u 8… y al reves, de poco te vale tener 8 nucleos super potentes para hacer desplazamientos vectoriales en un plano con 8 direcciones, es mucho mejor tener muchos nucleos que permitan una instruccion simple de desplazamiento (es lo que usan las graficas para renderizar video, al final tienes un pixel y haces que interactue con los 8 pixeles que le rodean y con la informacion que le entre por otra entrada, calculos muy simples sobre millones de pixeles que tiene una imagen, para eso es mejor paralelizar el proceso y usar nucleos poco potentes).

    Con todo ese tocho lo que quiero decir es que no estoy en contra de ARM ni mucho menos, ni de núcleos poco potentes ni nada por el estilo, cada cosa tiene su campo de uso, pero no es tan potente.

    Respecto a RISC volvemos a lo mismo, es mejor para unas cosas y peor para otras, utiliza instrucciones de longitud estática. eso viene muy bien por que al ser siempre igual las instrucciones facilita mucho su procesado y es mucho mas eficiente. Pero no todo es oro lo que reluce, para infinidad de cosas es muy util una longitud de instrucción dinámica, incluso al no permitir modificación en la estructura de las instrucciones, hace que o ajustas mucho mas la implementan del software, o al final tengas que usar mas instrucciones de la cuenta y acabes perdiendo eficiencia. es lo unico que no estoy de acuerdo con lo que has puesto en tu mensaje, dices que RISC trae flexibilidad, todo lo contrario, hace todo mas eficiente pero es mucho mas estricto, flexibilidad 0 en comparación, en cuanto a mas escalable, teoricamente si, por la simplicidad de CISC, pero de momento el limite donde la arquitectura deja de ser eficiente para escalarla la tenemos muy lejos todavia…
    A dia de hoy las cosas son poco escalables por que la paralelizacion de los algoritmos es muy compleja, y estamos muy lejos de conseguir que los algoritmos sobrepasen la capacidad de paralelizacion de la arquitectura (pero muuuy lejos), y sobre todo tienen que avanzar mucho las cosas para que ese sea un factor a corto plazo… (a largo plazo si, es uno de los principales puntos donde mas se esta avanzando, ya empezamos a otear ciertos limites de mejora a nivel de harware y cada vez mas se esta adaptando para que la mejora venga por el lado de los algoritmos eficientes y paralelizables, y ahi es donde ARM si tiene mucho que decir)

Lo más leído