Web
Analytics
Conecta con nosotros

A Fondo

Intel cumple 50 años

Publicado el
Intel 50

Intel cumple hoy sus primeros 50 años de existencia. Un aniversario redondo desde que el 18 de julio de 1968 Gordon E. Moore (químico y físico, famoso por su “Ley de Moore”) y Robert Noyce (físico y co-inventor del circuito integrado) fundaran la compañía Integrated Electronics Corporation en la ciudad californiana de Mountain View.

Desde que Morris Tanenbaum abrió la Era Silicon con la fabricación del primer transistor de silicio en Bell Labs en 1954, el ordenador personal ha experimentado una evolución impresionante e Intel ha estado en el centro de esta revolución a lo largo de cinco décadas especialmente por la creación de la arquitectura de procesadores x86 que todavía hoy dominan el corazón de los PCs.

Los comienzos de Intel

Es imposible describir los comienzos de una compañía que en sus inicios fabricaba chips de memorias sin hablar del Intel 4004, un “cerebro digital” que fue el primer microprocesador de simple chip comercializado en la historia de la computación. Fue creado para las calculadoras de la firma japonesa Busicom en lo que fue el primer gran contrato de suministro de chips de Intel.

Su principal responsable fue Federico Faggin, contratado desde Fairchild Semiconductor. El ingeniero ya había desarrollado la tecnología Silicon Gate Technology (SGT) y también había diseñado el primer circuito integrado MOS. Métodos claves para desarrollar el primer microprocesador comercial, una CPU de 4 bits y de simple chip en un encapsulado de 16 pines, con 2.300 transistores y frecuencia máxima del reloj de 740 KHz. Sus esquemas y sus circuitos auxiliares (chipset) fueron rescatados y se pueden revisar públicamente.

Intel4004_2

Solo fue el comienzo. El año siguiente Intel comercializó el 8008 (primer microprocesador de 8 bits) y una versión revisada, Intel 4040. La continuación llegó con el 8080, una CPU que comenzó la revolución y que fue usado en el Altair 8800.

A partir de ahí la historia es más conocida con base en La Ley de Moore promulgada por Gordon E. Moore el 19 de abril de 1965. Moore, ingeniero y co-fundador de Intel, aseguró entonces que el número de transistores por unidad de superficie en circuitos integrados se duplicaría cada año. Diez años después revisó su afirmación ampliando el enunciado de duplicación del número de transistores a dos años.

Hay debate sobre si el cumplimiento de la Ley de Moore está llegando a su fin y si podrá cumplirse en el futuro porque el mismo Moore no aseguraba su duración para siempre y la capacidad de materiales como el silicio es limitada. Se calcula que finalizará cuando a comienzos de la próxima década Intel (u otros) alcancen procesos de fabricación de 7 nanómetros.

Lo que es indudable es su importancia porque definió la estrategia de negocios en la industria de semiconductores, permitió la aparición del microprocesador y más tarde del ordenador personal. La Ley de Moore no solo se refería a computadoras sino a cualquier tipo de circuito integrado. Un componente vital para toda la industria y que ha terminado encumbrando a la rama tecnológica a la cabeza mundial.

Intel cumple 50 años: Momentos destacados

Intel ha publicado los que a su juicio han sido los momentos más importantes de la compañía en sus cinco décadas de existencia. Faltan algunos, pero es un buen resumen para entender su importancia en la historia de la computación:

Intel cumple 50 años

  • 18 de julio de 1968: Robert Noyce y Gordon Moore establecen NM Electronics, poco después renombrada a Intel Corporation.
  • Abril de 1969: Intel lanza la memoria de acceso aleatorio estática 3101 (SRAM), su primer producto.
  • 1969: Intel lanza la 1101 , la primera RAM estática de semiconductores de óxido de metal (MOS).
  • 1971:Intel crea el 4004, el primer microprocesador.
  • 1971: Intel presenta la memoria programable borrable (EPROM).
  • 31 de octubre de 1971: Intel sale a bolsa con la oferta pública inicial.
  • 1972: Intel abre la primera instalación de fabricación internacional en Penang, Malasia.
  • 1973: Intel abre una fábrica de obleas en Livermore, California, la primera fuera de Silicon Valley.
  • 1974: Intel lanza el microprocesador 8080 de 8 bits.
  • 1976: Intel estrena la familia de microcontroladores MCS-48.
  • 1978: Intel lanza el procesador 8086 , el primer procesador de 16 bits y el primero basado en la arquitectura x86.
  • 1979: Intel encabeza la lista Fortune 500.
  • 1981: IBM selecciona el microprocesador 8088 de Intel para el IBM PC, el primer ordenador personal.
  • 1982: Intel lanza el primer procesador 286, el 80286 de 16 bits.
  • 1983: Intel supera los 1.000 millones de dólares en ingresos.
  • 1985: Intel presenta el procesador 386, un chip de 32 bits.
  • 1988: Se crea la Fundación Intel.
  • 1991: Arranca la campaña de mercadotecnia Intel Inside.
  • 1993: Intel presenta el procesador Pentium.

Intel cumple 50 años

  • 1995: Intel colabora en la especificación USB, el gran estándar mundial para conexión de periféricos.
  • 1997: Time Magazine nombra a Andy Grove su “Hombre del año”.
  • 1999: Intel entra en el Dow Jones Industrial.
  • 2003: Intel lanza los procesadores Centrino, integrando un procesador móvil, conjuntos de chips relacionados y funciones de red inalámbrica 802.11.
  • 2007: Intel produce procesadores que usan transistores de 45 nanómetros.
  • 2011: Intel anuncia la especificación para computadoras portátiles Ultrabook.
  • 2016: Intel se reestructura de una empresa centrada en PCs a una empresa centrada en datos.
  • 2017: Intel desarrolla chips que usan transistores fabricados en procesos tecnológicos de 10 nm.

Intel cumple 50 años: No todo han sido éxitos

Como hemos visto, Intel no solo es procesadores y fue co-responsable de innovaciones que han marcado la historia de los ordenadores personales con innovaciones como USB, PCI, AGP, Ethernet o PCI-Express. Obviamente, no todo en “el gigante del chip” ha tenido el mismo éxito y Moore recuerda su poca visión comercial cuando descartó la idea de crear una computadora personal en los años 70. Intel tampoco tuvo éxito en su propuesta de módulo de memoria RIMM o en el proyecto Larrabee, una idea sobre cómo llevar la arquitectura IA-32 al campo de las GPU que fracasó por su pésimo rendimiento.

También destacada la multa de 1.450 millones de dólares de la Unión Europea en 2009 que en su momento fue la mayor multa en un caso antimonopolio. La investigación dio por probadas actuaciones poco éticas del gigante del chip, condicionando rebajas de precios de los chips a los fabricantes a cambio de que no usasen productos de la competencia o incluso ofreciendo pagos directos para que retrasasen la comercialización de microprocesadores AMD.

El fallo de 2009, tras nueve años de investigación, se confirmó en 2014 y en aquellos momentos, nos preguntábamos si el mercado de los microprocesadores hubiera cambiado si el veredicto de la UE hubiera llegado en 2006, cuando AMD pisaba fuerte con sus Opteron para servidores y los Athlon X2 de doble núcleo para el mercado doméstico.

También en el debe de Intel su incapacidad para competir con ARM en el segmento de smartphones y tablets lo que ha provocado su salida de ese mercado vital en la era de la movilidad. Este año, citar las vulnerabilidades Meltdown y Spectre como otro de los contratiempos de la compañía, además de la necesidad del nombramiento de un nuevo responsable ejecutivo tras la sorprendente dimisión de Brian Krzanich como CEO y miembro de la junta directiva.

El futuro de Intel

No, no todo han sido éxitos, pero es indudable la importancia de Intel en la historia de la computación y sus grandes aportaciones. La compañía es hoy un gigante de más de 100.000 empleados que domina ampliamente las ventas de los microprocesadores para ordenadores personales y hasta el pasado año que fue superado por Samsung, encabezó el mercado de semiconductores por ingresos en un primer puesto que ostentaba desde 1993 cuando superó a la japonesa NEC.

En una era post-PC y con la caída de ventas de ordenadores personales, Intel ha desarrollado en los últimos dos años una amplia reestructuración empresarial incluyendo un recorte de 12.000 empleos y activando una estrategia para moverse de una compañía que depende principalmente de los ingresos de chips para PC, hacia otros objetivos de mayor crecimiento.

Para ello, está aumentando la inversión en su negocio de centro de datos (su gran baluarte actualmente), memorias, conectividad, sensores y todo lo que llegue de los dispositivos vestibles wearables, los conectados bajo la Internet de las Cosas y la próxima generación de redes, 5G. No sabemos si activará algún tipo de estrategia en el futuro en móviles inteligentes, fallida hasta el momento frente a la posición de ARM. Por supuesto seguirá liderando con suficiencia el mercado PC, porque si Intel ha sufrido su caída, mucho más su rival AMD.

En cuanto al futuro técnico de Intel, pasa por los avances en procesos tecnológicos de fabricación de 7 y 5 nanómetros y el uso de materiales distintos al silicio, como el grafeno. Más allá, tecnologías completamente nuevas como las que se están investigando bajo computación cuántica. Nuevos materiales y arquitecturas que podrían extender la idea principal -Ley de Moore- que ha sustentado las primeras cinco décadas de su historia. 

¡¡¡Felicidades Intel!!!

A Fondo

Apple no correrá riesgos: el iPhone X 2018 costará 1.000 dólares

Publicado

el

El precio de los smartphones tope de gama se ha incrementado de forma significativa durante los últimos años, un proceso se estabilizará con el lanzamiento del iPhone X 2018.

Según los analistas de la firma TrendForce el iPhone X 2018 no supondrá un incremento de precio frente al iPhone X 2017, lo que significa que Apple mantendrá una estrategia claramente conservadora y que no piensa correr riesgos con su nueva generación de smartphones de gama alta.

Viendo lo que han hecho otros grandes del sector, como Samsung con el recién estrenado Galaxy Note 9 por ejemplo, la idea tiene mucho sentido, pero ya sabemos que Apple va por libre y que siempre que puede juega sus propias cartas de la manera que estima conveniente, así que no podemos evitar preguntarnos qué ha llevado realmente al gigante de Cupertino a apostar por un mantenimiento de precios, y la respuesta no es complicada.

iPhone X: unas ventas por debajo de lo esperado

El lanzamiento del iPhone X 2017 generó una gran expectación, pero el alto precio de venta y el interés que generaron los iPhone 8 y iPhone 8 Plus acabaron reduciendo las ventas del terminal por debajo de lo esperado. No hablamos de una diferencia pequeña, las expectativas de Apple estaban por las nubes pero no se cumplieron.

Esto no quiere decir que el iPhone X 2017 haya sido un fracaso, nada más lejos de la realidad, pero sí que confirma que no ha vendido como Apple quería y que por tanto su estrategia no fue del todo correcta. Con el iPhone X 2018 no esperamos cambios importantes más allá de la habitual renovación de hardware, así que inflar su precio de venta sin aportar cambios que lo justifiquen podría hundir sus ventas de forma desmesurada. Apple debería ser consciente de esa realidad, y por ello la predicción de TrendForce tiene mucho sentido.

Como podemos ver en la imagen adjunta el iPhone 9 de 6,1 pulgadas con pantalla IPS tendrá un precio de entre 700 y 750 dólares, el iPhone X OLED 2018 de 5,8 pulgadas costará entre 900 y 950 dólares y el iPhone X OLED 2018 de 6,5 pulgadas costará entre 950 y 1.000 dólares, cifras que coinciden a grandes rasgos con las que habíamos ido viendo en filtraciones anteriores y que resultan bastante sensatas y equilibradas.

¿Qué podemos esperar de lo nuevo de Apple?

Los tres terminales van a partir de una base y un diseño idénticos: formato 19:9 con muesca en la parte superior, acabado en cristal y metal y las líneas redondeadas que hemos visto en el iPhone X 2017.

El modelo IPS tendrá una única cámara trasera mientras que los modelos OLED tendrán una configuración de doble cámara trasera en vertical. Más allá de eso no habrá diferencias a nivel estético entre los tres terminales.

Por lo que respecta a las especificaciones ya hemos visto que habrá diferencias importantes:

  • iPhone 9: pantalla IPS de 6,1 pulgadas, cámara trasera, 3 GB de RAM y SoC Apple A12. Tendrá versiones de 64 GB y 256 GB de capacidad de almacenamiento.
  • iPhone X 2018: pantalla OLED de 5,8 pulgadas, doble cámara trasera, 4 GB de RAM y SoC Apple A12. Tendrá versiones de 64 GB, 256 GB y 512 GB de capacidad de almacenamiento.
  • iPhone X 2018 Plus: pantalla OLED de 6,5 pulgadas, doble cámara trasera, 4 GB de RAM y SoC Apple A12. Tendrá versiones de 64 GB, 256 GB y 512 GB de capacidad de almacenamiento.

Continuar leyendo

A Fondo

Quadro RTX con GPU Turing: así es lo nuevo de NVIDIA

Publicado

el

NVIDIA ha anunciado las Quadro RTX, una nueva generación de tarjetas gráficas que están basadas en la nueva arquitectura Turing y que representan un avance importante frente a las generaciones anteriores basadas en Pascal y en Volta.

Antes de empezar debemos tener claro que Turing es una evolución de Volta, lo que significa que encontramos elementos que estaban presentes en dicha arquitectura y que se combinan con otros nuevos para potenciar el rendimiento y las posibilidades de esta nueva generación.

En términos de potencia bruta el mayor cambio que hemos podido ver en las Quadro RTX ha sido la introducción de núcleos dedicados al trazado de rayos. Los que nos leéis habitualmente recordaréis que ya os adelantamos en este artículo que esta tecnología iba a centrar todos los esfuerzos de NVIDIA, y que la compañía podría tirar de los núcleos ténsor para mejorar el rendimiento de sus nuevas tarjetas gráficas, algo que al final se ha cumplido pero con matices.

Las Quadro RTX cuentan con un núcleo gráfico que podemos dividir en tres grandes partes:

  • Núcleos CUDA (shaders): es la parte “básica” que ya conocemos y sobre la que recaen trabajos generales de computación y de renderizado , aunque también puede trabajar con otras cargas como la inteligencia artificial y el aprendizaje profundo.
  • Núcleos ténsor: es un bloque especializado y dedicado a trabajar con sistemas de aprendizaje profundo e inteligencia artificial.
  • Núcleos RT: otro bloque especializado y la principal novedad de Turing. Está pensado para acelerar el trabajo con trazado de rayos.

En este caso tenemos por tanto dos especializaciones fundamentales: el subsistema para IA y aprendizaje profundo y el subsistema para trazado de rayos. Ya hemos visto que la especialización puede marcar una gran diferencia y en este caso no estamos ante una excepción. Los núcleos ténsor presentes en la Tesla V100 de NVIDIA alcanzaban picos de 125 TFLOPs y los núcleos RTX para trazado de rayos impulsan el rendimiento para ofrecer una mejora de hasta x25 frente a Pascal.

Quadro RTX: modelos y especifiaciones

De momento han sido confirmadas un total de tres tarjetas gráficas Quadro RTX. Esta línea está pensada para profesionales y por ello cuenta con soporte oficial de controladores específicos para aplicaciones de diseño gráfico, renderizado, creación de contenidos y otras especializadas dentro del sector científico.

Ese soporte marca una diferencia importante frente a las GeForce de consumo general, pero no es la única diferencia. La serie Quadro viene con memoria ECC (corrección de errores), una característica que representa un valor muy importante, sobre todo para aquellos que necesiten trabajar con simulaciones y cargas muy complejas que consumen una gran cantidad de memoria. Un simple error puede dar al traste con una simulación completa de varias horas, problema que sufrían las GTX TITAN V por carecer de ECC como vimos en este artículo, así que su valor está fuera de toda duda.

Pasamos a ver las especificaciones fundamentales de las nuevas Quadro RTX:

  • Quadro RTX 5000: 3.072 núcleos CUDA, 384 núcleos ténsor, 6 GigaRays/s, bus de 384 bits y 16 GB de GDDR6. Costará 2.300 dólares.
  • Quadro RTX 6000: 4.608 núcleos CUDA, 576 núcleos ténsor, 10 GigaRays/s, bus de 384 bits y 24 GB de GDDR6. Costará 6.300 dólares.
  • Quadro RTX 8000: 4.608 núcleos CUDA, 576 núcleos ténsor, 10 GigaRays/s, bus de 384 bits y 48 GB de GDDR6. Costará 10.000 dólares.

Estarán disponibles a finales de este año y serán compatibles con NVIDIA NVLink, que permitirá utilizar dos tarjetas gráficas como si fuera una. Estas son algunas de las claves más importantes que ha confirmado NVIDIA:

  • Nuevos núcleos RT para mejorar el rendimiento con trazado de rayos en tiempo real de objetos y entornos con sombras, reflejos, refracciones e iluminación global físicamente precisos.
  • Turing Tensor Cores para acelerar el entrenamiento y la inferencia de redes neuronales profundas, que son fundamentales para impulsar productos, servicios y renderización mejorada con inteligencia artificial.
  • Nueva arquitectura Turing Streaming Multiprocessor, que cuenta con hasta 4.608 núcleos CUDA, ofrece hasta 16 billones de operaciones de punto flotante en paralelo con 16 billones de operaciones de enteros por segundo para acelerar la compleja simulación de la física del mundo real.
  • Tecnologías de sombreado programables avanzadas para mejorar el rendimiento de efectos visuales complejos y experiencias intensivas en gráficos.
  • Primera implementación de la memoria Samsung GDDR6 de 16 Gb.
  • La tecnología NVIDIA NVLink permite combinar dos GPU con un enlace de alta velocidad para escalar la capacidad de la memoria de hasta 96 GB y aumentar el rendimiento con hasta 100 GB/s de transferencia de datos.
  • Soporte de hardware para USB Type-C y VirtualLink, un nuevo estándar abierto de la industria que se desarrolla para satisfacer las demandas de potencia, pantalla y ancho de banda de los auriculares VR de próxima generación a través de un único conector USB-C .
  • Tecnologías nuevas y mejoradas para mejorar el rendimiento de las aplicaciones de realidad virtual, incluido el sombreado de tasa variable, el renderizado de múltiples vistas y el sonido VRWorks.

¿Y qué hay de las GeForce RTX 2080 y GeForce GTX 2070?

Es una buena pregunta y tenemos buenas noticias. Las Quadro de NVIDIA siempre han mantenido una base común con las GeForce, es decir son prácticamente idénticas en términos de shaders y sus diferencias se reducen a la ausencia de ECC, a la carencia de la optimización a nivel de drivers para aplicaciones profesionales y a una (por lo general) reducción de memoria gráfica.

Por si alguien duda de esto tranquilidad, lo ilustramos con un ejemplo: la Quadro P5000 tiene 2.560 shaders, bus de 256 bits y 16 GB de memoria GDDR5X. Es un calco de la GTX 1080 salvo por todo lo que hemos dicho anteriormente; ECC drivers y memoria gráfica, ya que la GeForce tiene 8 GB de GDDR5X.

Pues bien, esto nos lleva a una conclusión tan simple como interesante y es que la GeForce RTX 2080 podría tener las mismas especificaciones que la Quadro RTX 5000 pero con un pequeño recorte en términos de memoria gráfica, es decir mantendría los 3.072 shaders, el bus de 384 bits y 8 GB de GDDR6.

No podemos descartar que NVIDIA opte por ir más allá y que esa GeForce GTX 2080 acabe siendo un reflejo de la Quadro RTX 6000, lo que nos dejaría 4.608 shaders, bus de 384 bits y 16 GB de GDDR6. Si esto se cumple la Quadro RTX 5000 podría ser un reflejo de la GeForce RTX 2070.

Continuar leyendo

A Fondo

Intel Core 9000, modelos y precios para PCs de sobremesa

Publicado

el

Procesadores Intel

Los Core 9000, novena generación de procesadores de Intel, estarán en el mercado el 1 de octubre según las diapositivas filtradas por wccftech, donde también vemos modelos y precios de la gama de sobremesa.

Core 9000 serán (o deberían ser) los últimos procesadores de Intel antes del paso a los procesos tecnológicos de fabricación de 10 nanómetros. Las principales novedades pasan por la llegada de los modelos con ocho núcleos físicos de procesamiento (la primera vez que Intel los comercializa para el segmento del gran consumo) mayor seguridad contra Meltdown y Spectre, y, según los rumores, soldadura en el difusor térmico integrado abandonando el uso de la pasta térmica.

Una vuelta de tuerca con la misma arquitectura base y proceso de fabricación de 14 nm++ de los actuales Core serie 8000. Se instalarán sobre el socket LGA1151, aunque requerirán un placa base con chipset serie 300 para poder funcionar correctamente. Los principales fabricantes ya han anunciado la actualización de las BIOS / UEFI de sus placas base con chipset Z370 para soportarlos. No serán compatibles con las placas base con chipset serie 200 e inferiores.

Los modelos listados son los que te veníamos comentando, pero con mayores frecuencias de trabajo sobre lo previsto. Estarán encabezados por el Core i9 9900K, el tope de gama con 8 núcleos y 16 hilos con frecuencia de trabajo de 3,6 GHz y máximo de hasta 5 GHz con TurboBoost. 4 núcleos podrían funcionar a 4,8 GHz, mientras que con todos los núcleos activados la frecuencia ascendería a 4,7 GHz.

Tendrá 16 Mbytes totales de memoria caché, un consumo TDP de 95 vatios y un multiplicador desbloqueado como toda la serie “K”. Su precio de 450 dólares correspondería al aumento de número de núcleos. Contenido si tenemos en cuenta lo que cuestan los modelos de alto rendimiento HEDT, pero más caro que ningún procesador para el gran consumo mainstream de Intel.

El resto de modelos no tendría capacidad de HyperThreading y tendrían el mismo número de núcleos que de hilos, 8, 6 o 4 de los más económicos Core i3. De acuerdo con el documento, Intel liberaría primero los SKU de mayor potencia serie K en octubre, seguidos por el resto de la familia de la novena generación en el primer trimestre de Q1 2019 tras anuncio oficial en el CES como suele realizar habitualmente.

Z390, el nuevo chipset para los Core 9000

Los Core 9000 vendrán acompañados de un nuevo chipset Z390. Será la base para la creación de placas base y completará una serie que ofrece los chipsets H310 (gama básica), H370 (un peldaño por encima de la anterior), B360 (con soporte de memorias a mayor velocidad), las soluciones empresariales Q360 y Q370 y el Z370. Todas ellas serán compatibles después de una actualización de la BIOS/UEFI.

Como el resto de chipsets de la serie 300, el Z390 Express se conecta con un socket LGA-1151 a través de un chipset-bus DMI 3.0 y soporta 24 líneas PCI-Express 3.0.

Su configuración de almacenamiento también es similar al Z370, seis puertos SATA de 6 Gbps con soporte AHCI y RAID, y hasta tres conectores M.2 / U.2 de 32 Gbps. Las diferencias comienzan con la conectividad USB integrada. El Z390 Express saca directamente seis puertos USB 3.1 gen 2 de 10 Gbps y diez puertos USB 3.1 gen 1 de 5 Gbps. Si ello no te basta, también soporta catorce puertos 2.0 para un total de 30 puertos USB soportados.

Soportará memorias DDR4-2666 MHz (ampliable mediante overclocking) y la tecnología de memoria Intel Optane. Otra característica mencionada es la tecnología Intel SmartSound, que el documento especifica como un DSP para “descarga de audio / voz”. Sería un procesador digital de señales que reducirá la carga de la CPU al procesar la pila de audio. A nivel físico, el bus de audio sigue siendo el conocido “Azalia”.

Con el Z390 Express, Intel también está actualizando el conjunto de funciones de red de la plataforma. El chipset admite una interfaz MAC de 1 GbE y recomienda a los fabricantes de placas base que incluyan por defecto un módulo Intel AC 9560 con soporte para Wi-Fi 802.11ac y Bluetooth 5. Casi todas las placas contarán con soporte para redes inalámbricas y la mayoría de ellas incluirán tarjetas WLAN recomendadas por Intel.

Mayor seguridad contra Meltdown y Spectre

Además del aumento del número de núcleos en el modelo tope de gama y un posible aumento de frecuencias en los modelos “refrescados”, los nuevos procesadores tendrán modificaciones a nivel de silicio contra las vulnerabilidades Meltdown y Spectre.

El CEO de Intel, Brian Krzanich, prometió una solución permanente a nivel de silicio (hardware) para mitigar estas  vulnerabilidades que tienen en vilo a la industria tecnológica y consumidores desde primeros de año. Una respuesta ante la certeza que estas vulnerabilidades no podrán ser solucionadas al 100% mediante parches de software, ni siquiera actuando en el firmware, en todos todos los procesadores Intel actuales.

Así las cosas, además de emitir parches para los procesadores comercializados durante los cinco últimos años, sexta, séptima y octava generación Core (arquitecturas Skylake, Kaby Lake y Coffee Lake) y los procesadores de cuarta y quinta generación Core, Haswell y Broadwell, Intel prometió el lanzamiento de nuevos chips y ellos serían los Core 9000. Desconocemos si estarían a salvo de ataques contra todas las variantes conocidas y si conllevará una pérdida de rendimiento.

Transición a los 10 nm

Los Core 9000 serían una transición hasta la llegada de los procesadores “Ice Lake”, una familia que estrenarán una característica muy especial, un proceso tecnológico de fabricación de 10 nanómetros que será líder en la industria.

La mejora de los procesos de fabricación ha sido una constante los últimos años en el gigante del chip. Intel estrenó en la  plataforma Broadwell los procesos tecnológicos de fabricación más avanzados del sector de procesadores para PC con los 14 nanómetros, pero desde entonces no ha salido de ahí, si bien ha introducido mejoras en Skylake, Kaby Lake y Coffee Lake.

El próximo salto serán los 10 nm de los Ice Lake. No hay muchos detalles salvo un discreto anuncio previo de Intel, aunque es seguro el aumento de rendimiento a la vez que se reduce el tamaño de los chips. También el precio de producción y su consumo lo que redundará en una gran autonomía en equipos portátiles y convertibles con estos chips que incluirán la CPU, GPU y controladora de memoria en la misma die, aumentando la integración de componentes y partes del chipset.

Continuar leyendo

Lo más leído