Web
Analytics
Conecta con nosotros

A Fondo

Apple toca fondo con las ventas de sus Mac, os contamos cuál es el problema

Publicado el
Mac

La firma de Cupertino se ha convertido en la primera tecnológica estadounidense en superar el billón de dólares en valor de capitalización de mercado, todo un logro que sin embargo no oculta la triste realidad que afecta a sus Mac.

El desglose de los productos vendidos que ha realizado MacRumors en la gráfica adjunta nos permite ver que el iPhone y los servicios son los dos grandes pilares sobre los que se sostiene casi todo el peso de Apple, y teniendo en cuenta la enorme dependencia que los segundos tienen de los primeros podemos decir sin temor a equivocarnos que el gigante de Cupertino depende fundamentalmente del iPhone.

Los de la manzana mordida han confirmado que desde el 1 de abril hasta el 30 de junio ha vendido 3,72 millones de equipos Mac, una cifra que es la segunda más baja que ha registrado la compañía desde el mismo periodo de 2010, fecha en la que apenas llegó a los 3,47 millones de unidades.

¿Qué es lo que está ocurriendo?

Podríamos pensar que hay una explicación compleja detrás de esta situación, pero lo cierto es que la explicación es muy sencilla: Apple vende hardware obsoleto a precios absurdos, y el Mac Pro es el mejor ejemplo, ya que hablamos de un equipo que tiene hardware de 2012-2013 y que todavía cuesta miles de euros.

Con esto no queremos decir que todos los Mac que vende Apple estén obsoletos, pero sí que la compañía de la manzana tiene pendiente una importante renovación de buena parte de su catálogo y que ésto ha acabado afectando de forma notable a sus ventas.

Siguiendo con el ejemplo que hemos puesto anteriormente podemos hablar del Mac Mini, que lleva varios años sin actualizarse o del MacBook Air, que sigue teniendo presencia en la tienda oficial de Apple a pesar de contar con una vetusta pantalla con resolución de 1.440 x 900 píxeles y de utilizar procesadores Core serie 5000U, una generación que está basada en Broadwell de Intel y que queda cuatro generaciones por detrás de los actuales Coffee Lake.

Apple no es la única afectada

Es cierto que Apple es una de las compañías que más está sufriendo su propia ralentización en los ciclos de renovación de sus equipos Mac, pero no es la única empresa que está afectada por ese problema.

Microsoft es otro gigante que arrastra el problema de las actualizaciones a destiempo de sus principales productos. Por ejemplo la serie Surface Pro utiliza procesadores basados en Kaby Lake, una serie que ya ha sido superada por dos generaciones: Kaby Lake R y Coffee Lake. Puede parecer poco importante nada más lejos de la realidad, ya que los procesadores Kaby Lake de bajo consumo tienen dos núcleos y cuatro hilos mientras que los basados en Kaby Lake R y superiores tienen cuatro núcleos y  ocho hilos.

El alto precio es otra clave a tener en cuenta, ya que en este tipo de equipos no hace más que agravar la situación al reducir de manera drástica el valor calidad-precio que ofrecen y acaba borrando prácticamente cualquier tipo de interés por parte del consumidor.

Apple es consciente de la situación. La propia compañía ha confirmado que están trabajando en el desarrollo de un nuevo Mac Pro y que no sólo aprovecharán para hacer una puesta al día a nivel de especificaciones, sino que además llevarán a cabo una renovación total en términos de diseño.

El Mac Pro sorprendió al mundo por su acabado en forma de cilindro, así que habrá que esperar a ver qué se les ocurre ahora a los ingenieros de Apple. Os recordamos que su lanzamiento se espera para 2019.

Editor de la publicación on-line líder en audiencia dentro de la información tecnológica para profesionales. Al día de todas las tecnologías que pueden marcar tendencia en la industria.

A Fondo

Quadro RTX con GPU Turing: así es lo nuevo de NVIDIA

Publicado

el

NVIDIA ha anunciado las Quadro RTX, una nueva generación de tarjetas gráficas que están basadas en la nueva arquitectura Turing y que representan un avance importante frente a las generaciones anteriores basadas en Pascal y en Volta.

Antes de empezar debemos tener claro que Turing es una evolución de Volta, lo que significa que encontramos elementos que estaban presentes en dicha arquitectura y que se combinan con otros nuevos para potenciar el rendimiento y las posibilidades de esta nueva generación.

En términos de potencia bruta el mayor cambio que hemos podido ver en las Quadro RTX ha sido la introducción de núcleos dedicados al trazado de rayos. Los que nos leéis habitualmente recordaréis que ya os adelantamos en este artículo que esta tecnología iba a centrar todos los esfuerzos de NVIDIA, y que la compañía podría tirar de los núcleos ténsor para mejorar el rendimiento de sus nuevas tarjetas gráficas, algo que al final se ha cumplido pero con matices.

Las Quadro RTX cuentan con un núcleo gráfico que podemos dividir en tres grandes partes:

  • Núcleos CUDA (shaders): es la parte “básica” que ya conocemos y sobre la que recaen trabajos generales de computación y de renderizado , aunque también puede trabajar con otras cargas como la inteligencia artificial y el aprendizaje profundo.
  • Núcleos ténsor: es un bloque especializado y dedicado a trabajar con sistemas de aprendizaje profundo e inteligencia artificial.
  • Núcleos RT: otro bloque especializado y la principal novedad de Turing. Está pensado para acelerar el trabajo con trazado de rayos.

En este caso tenemos por tanto dos especializaciones fundamentales: el subsistema para IA y aprendizaje profundo y el subsistema para trazado de rayos. Ya hemos visto que la especialización puede marcar una gran diferencia y en este caso no estamos ante una excepción. Los núcleos ténsor presentes en la Tesla V100 de NVIDIA alcanzaban picos de 125 TFLOPs y los núcleos RTX para trazado de rayos impulsan el rendimiento para ofrecer una mejora de hasta x25 frente a Pascal.

Quadro RTX: modelos y especifiaciones

De momento han sido confirmadas un total de tres tarjetas gráficas Quadro RTX. Esta línea está pensada para profesionales y por ello cuenta con soporte oficial de controladores específicos para aplicaciones de diseño gráfico, renderizado, creación de contenidos y otras especializadas dentro del sector científico.

Ese soporte marca una diferencia importante frente a las GeForce de consumo general, pero no es la única diferencia. La serie Quadro viene con memoria ECC (corrección de errores), una característica que representa un valor muy importante, sobre todo para aquellos que necesiten trabajar con simulaciones y cargas muy complejas que consumen una gran cantidad de memoria. Un simple error puede dar al traste con una simulación completa de varias horas, problema que sufrían las GTX TITAN V por carecer de ECC como vimos en este artículo, así que su valor está fuera de toda duda.

Pasamos a ver las especificaciones fundamentales de las nuevas Quadro RTX:

  • Quadro RTX 5000: 3.072 núcleos CUDA, 384 núcleos ténsor, 6 GigaRays/s, bus de 384 bits y 16 GB de GDDR6. Costará 2.300 dólares.
  • Quadro RTX 6000: 4.608 núcleos CUDA, 576 núcleos ténsor, 10 GigaRays/s, bus de 384 bits y 24 GB de GDDR6. Costará 6.300 dólares.
  • Quadro RTX 8000: 4.608 núcleos CUDA, 576 núcleos ténsor, 10 GigaRays/s, bus de 384 bits y 48 GB de GDDR6. Costará 10.000 dólares.

Estarán disponibles a finales de este año y serán compatibles con NVIDIA NVLink, que permitirá utilizar dos tarjetas gráficas como si fuera una. Estas son algunas de las claves más importantes que ha confirmado NVIDIA:

  • Nuevos núcleos RT para mejorar el rendimiento con trazado de rayos en tiempo real de objetos y entornos con sombras, reflejos, refracciones e iluminación global físicamente precisos.
  • Turing Tensor Cores para acelerar el entrenamiento y la inferencia de redes neuronales profundas, que son fundamentales para impulsar productos, servicios y renderización mejorada con inteligencia artificial.
  • Nueva arquitectura Turing Streaming Multiprocessor, que cuenta con hasta 4.608 núcleos CUDA, ofrece hasta 16 billones de operaciones de punto flotante en paralelo con 16 billones de operaciones de enteros por segundo para acelerar la compleja simulación de la física del mundo real.
  • Tecnologías de sombreado programables avanzadas para mejorar el rendimiento de efectos visuales complejos y experiencias intensivas en gráficos.
  • Primera implementación de la memoria Samsung GDDR6 de 16 Gb.
  • La tecnología NVIDIA NVLink permite combinar dos GPU con un enlace de alta velocidad para escalar la capacidad de la memoria de hasta 96 GB y aumentar el rendimiento con hasta 100 GB/s de transferencia de datos.
  • Soporte de hardware para USB Type-C y VirtualLink, un nuevo estándar abierto de la industria que se desarrolla para satisfacer las demandas de potencia, pantalla y ancho de banda de los auriculares VR de próxima generación a través de un único conector USB-C .
  • Tecnologías nuevas y mejoradas para mejorar el rendimiento de las aplicaciones de realidad virtual, incluido el sombreado de tasa variable, el renderizado de múltiples vistas y el sonido VRWorks.

¿Y qué hay de las GeForce RTX 2080 y GeForce GTX 2070?

Es una buena pregunta y tenemos buenas noticias. Las Quadro de NVIDIA siempre han mantenido una base común con las GeForce, es decir son prácticamente idénticas en términos de shaders y sus diferencias se reducen a la ausencia de ECC, a la carencia de la optimización a nivel de drivers para aplicaciones profesionales y a una (por lo general) reducción de memoria gráfica.

Por si alguien duda de esto tranquilidad, lo ilustramos con un ejemplo: la Quadro P5000 tiene 2.560 shaders, bus de 256 bits y 16 GB de memoria GDDR5X. Es un calco de la GTX 1080 salvo por todo lo que hemos dicho anteriormente; ECC drivers y memoria gráfica, ya que la GeForce tiene 8 GB de GDDR5X.

Pues bien, esto nos lleva a una conclusión tan simple como interesante y es que la GeForce RTX 2080 podría tener las mismas especificaciones que la Quadro RTX 5000 pero con un pequeño recorte en términos de memoria gráfica, es decir mantendría los 3.072 shaders, el bus de 384 bits y 8 GB de GDDR6.

No podemos descartar que NVIDIA opte por ir más allá y que esa GeForce GTX 2080 acabe siendo un reflejo de la Quadro RTX 6000, lo que nos dejaría 4.608 shaders, bus de 384 bits y 16 GB de GDDR6. Si esto se cumple la Quadro RTX 5000 podría ser un reflejo de la GeForce RTX 2070.

Continuar leyendo

A Fondo

Intel Core 9000, modelos y precios para PCs de sobremesa

Publicado

el

Procesadores Intel

Los Core 9000, novena generación de procesadores de Intel, estarán en el mercado el 1 de octubre según las diapositivas filtradas por wccftech, donde también vemos modelos y precios de la gama de sobremesa.

Core 9000 serán (o deberían ser) los últimos procesadores de Intel antes del paso a los procesos tecnológicos de fabricación de 10 nanómetros. Las principales novedades pasan por la llegada de los modelos con ocho núcleos físicos de procesamiento (la primera vez que Intel los comercializa para el segmento del gran consumo) mayor seguridad contra Meltdown y Spectre, y, según los rumores, soldadura en el difusor térmico integrado abandonando el uso de la pasta térmica.

Una vuelta de tuerca con la misma arquitectura base y proceso de fabricación de 14 nm++ de los actuales Core serie 8000. Se instalarán sobre el socket LGA1151, aunque requerirán un placa base con chipset serie 300 para poder funcionar correctamente. Los principales fabricantes ya han anunciado la actualización de las BIOS / UEFI de sus placas base con chipset Z370 para soportarlos. No serán compatibles con las placas base con chipset serie 200 e inferiores.

Los modelos listados son los que te veníamos comentando, pero con mayores frecuencias de trabajo sobre lo previsto. Estarán encabezados por el Core i9 9900K, el tope de gama con 8 núcleos y 16 hilos con frecuencia de trabajo de 3,6 GHz y máximo de hasta 5 GHz con TurboBoost. 4 núcleos podrían funcionar a 4,8 GHz, mientras que con todos los núcleos activados la frecuencia ascendería a 4,7 GHz.

Tendrá 16 Mbytes totales de memoria caché, un consumo TDP de 95 vatios y un multiplicador desbloqueado como toda la serie “K”. Su precio de 450 dólares correspondería al aumento de número de núcleos. Contenido si tenemos en cuenta lo que cuestan los modelos de alto rendimiento HEDT, pero más caro que ningún procesador para el gran consumo mainstream de Intel.

El resto de modelos no tendría capacidad de HyperThreading y tendrían el mismo número de núcleos que de hilos, 8, 6 o 4 de los más económicos Core i3. De acuerdo con el documento, Intel liberaría primero los SKU de mayor potencia serie K en octubre, seguidos por el resto de la familia de la novena generación en el primer trimestre de Q1 2019 tras anuncio oficial en el CES como suele realizar habitualmente.

Z390, el nuevo chipset para los Core 9000

Los Core 9000 vendrán acompañados de un nuevo chipset Z390. Será la base para la creación de placas base y completará una serie que ofrece los chipsets H310 (gama básica), H370 (un peldaño por encima de la anterior), B360 (con soporte de memorias a mayor velocidad), las soluciones empresariales Q360 y Q370 y el Z370. Todas ellas serán compatibles después de una actualización de la BIOS/UEFI.

Como el resto de chipsets de la serie 300, el Z390 Express se conecta con un socket LGA-1151 a través de un chipset-bus DMI 3.0 y soporta 24 líneas PCI-Express 3.0.

Su configuración de almacenamiento también es similar al Z370, seis puertos SATA de 6 Gbps con soporte AHCI y RAID, y hasta tres conectores M.2 / U.2 de 32 Gbps. Las diferencias comienzan con la conectividad USB integrada. El Z390 Express saca directamente seis puertos USB 3.1 gen 2 de 10 Gbps y diez puertos USB 3.1 gen 1 de 5 Gbps. Si ello no te basta, también soporta catorce puertos 2.0 para un total de 30 puertos USB soportados.

Soportará memorias DDR4-2666 MHz (ampliable mediante overclocking) y la tecnología de memoria Intel Optane. Otra característica mencionada es la tecnología Intel SmartSound, que el documento especifica como un DSP para “descarga de audio / voz”. Sería un procesador digital de señales que reducirá la carga de la CPU al procesar la pila de audio. A nivel físico, el bus de audio sigue siendo el conocido “Azalia”.

Con el Z390 Express, Intel también está actualizando el conjunto de funciones de red de la plataforma. El chipset admite una interfaz MAC de 1 GbE y recomienda a los fabricantes de placas base que incluyan por defecto un módulo Intel AC 9560 con soporte para Wi-Fi 802.11ac y Bluetooth 5. Casi todas las placas contarán con soporte para redes inalámbricas y la mayoría de ellas incluirán tarjetas WLAN recomendadas por Intel.

Mayor seguridad contra Meltdown y Spectre

Además del aumento del número de núcleos en el modelo tope de gama y un posible aumento de frecuencias en los modelos “refrescados”, los nuevos procesadores tendrán modificaciones a nivel de silicio contra las vulnerabilidades Meltdown y Spectre.

El CEO de Intel, Brian Krzanich, prometió una solución permanente a nivel de silicio (hardware) para mitigar estas  vulnerabilidades que tienen en vilo a la industria tecnológica y consumidores desde primeros de año. Una respuesta ante la certeza que estas vulnerabilidades no podrán ser solucionadas al 100% mediante parches de software, ni siquiera actuando en el firmware, en todos todos los procesadores Intel actuales.

Así las cosas, además de emitir parches para los procesadores comercializados durante los cinco últimos años, sexta, séptima y octava generación Core (arquitecturas Skylake, Kaby Lake y Coffee Lake) y los procesadores de cuarta y quinta generación Core, Haswell y Broadwell, Intel prometió el lanzamiento de nuevos chips y ellos serían los Core 9000. Desconocemos si estarían a salvo de ataques contra todas las variantes conocidas y si conllevará una pérdida de rendimiento.

Transición a los 10 nm

Los Core 9000 serían una transición hasta la llegada de los procesadores “Ice Lake”, una familia que estrenarán una característica muy especial, un proceso tecnológico de fabricación de 10 nanómetros que será líder en la industria.

La mejora de los procesos de fabricación ha sido una constante los últimos años en el gigante del chip. Intel estrenó en la  plataforma Broadwell los procesos tecnológicos de fabricación más avanzados del sector de procesadores para PC con los 14 nanómetros, pero desde entonces no ha salido de ahí, si bien ha introducido mejoras en Skylake, Kaby Lake y Coffee Lake.

El próximo salto serán los 10 nm de los Ice Lake. No hay muchos detalles salvo un discreto anuncio previo de Intel, aunque es seguro el aumento de rendimiento a la vez que se reduce el tamaño de los chips. También el precio de producción y su consumo lo que redundará en una gran autonomía en equipos portátiles y convertibles con estos chips que incluirán la CPU, GPU y controladora de memoria en la misma die, aumentando la integración de componentes y partes del chipset.

Continuar leyendo

A Fondo

Cinco grandes misterios sobre Júpiter que quizá no conocías

Publicado

el

Júpiter es uno de los planetas más importantes del sistema solar. Puede que sea un gigante gaseoso y que la vida en él sea imposible, siempre teniendo en cuenta que hablamos de formas de vida basadas en el carbono, pero juega un papel crucial como “policía” del sistema solar, ya que gracias a su enorme atracción gravitatoria actúa como un gigantesco “escudo” contra asteroides y cometas.

Sin Júpiter la Tierra recibiría un bombardeo de asteroides y cometas muy superior al que registra actualmente. No hay consenso, pero los estudios más recientes han indicado que sin el papel de escudo que ejerce dicho planeta el impacto de asteroides sobre la Tierra se multiplicaría por cien. Este simple dato nos permite interiorizar mejor la importancia de ese gigante gaseoso.

Hace un par de años publicamos este artículo que nos permitió descubrir algunas cosas interesantes sobre Júpiter, y hoy hemos vuelto a poner la mirada sobre él para centrarnos en cinco grandes misterios sobre nuestro gigantesco vecino que vale la pena conocer. Esperamos que os guste y como siempre os invitamos a dejar vuestras propias aportaciones en los comentarios.

1-Es un gigante de gas cargado de elementos pesados

Júpiter es enorme, eso lo sabemos, pero también es el más masivo del sistema solar. Si hablamos de números concretos nos encontramos con que es 317 veces más masivo que la Tierra, un número que nos ayuda a entender por qué es considerado casi como un proyecto fallido de estrella.

Existe la creencia de que los planetas del sistema solar se formaron a partir de la misma nube de hidrógeno-helio de la que nació el Sol. Sin embargo la sonda Galileo, que estudió Júpiter en la década de 1990 al 2000, encontró grandes diferencias en la cantidad de elementos pesados que existe en Júpiter y en el Sol.

Esta realidad ha generado muchas dudas que han dado forma a múltiples hipótesis que tratan de explicar esa disparidad de elementos pesados en ambos cuerpos. Una de las que mayor credibilidad tienen sugiere que los elementos pesados ​​de Júpiter provienen de los numerosos cometas, asteroides y otros cuerpos pequeños que ha absorbido y “consumido” durante todos los años que lleva actuando como “escudo” en el sistema solar.

2-Aglutina una enorme cantidad de agua, ¿pero qué cantidad exacta?

Sé lo que estáis pensando, ¿para qué queremos saber cuánta agua tiene un gigante gaseoso? Es una buena pregunta y la respuesta es muy simple, porque nos ayuda a entender cómo se formó el planeta.

Como hemos dicho en el primer punto la presencia de elementos pesados en Júpiter es un síntoma claro de que pudo haber particularidades durante su formación. Parte de esos elementos pudo llegar a través de cometas y asteroides y es muy probable que llevaran también hielo y agua.

Conocer la abundancia de agua que existe en Júpiter nos ayudará a determinar la forma original en la que pudo llegar al planeta y contribuirá a definir las condiciones y procesos que ocurrieron en la nube original de polvo y gas que condujo a la formación del mismo.

3-Júpiter podría tener un núcleo borroso

Júpiter tiene una física muy complicada, tanto que ni siquiera el poder de la imaginación de los científicos es suficiente para completarla. Este planeta está formado en un 90% por hidrógeno, un elemento que está presente en las capas exteriores en forma gaseosa.

Sin embargo en las capas más profundas del planeta el hidrógeno se encuentra a una presión tan alta que sus electrones son expulsados y se crea un fluido que conduce la electricidad tan bien como un metal. Esto crea un enorme campo magnético dentro del planeta que además se ve reforzado por la rápida rotación de Júpiter.

Tenemos una idea bastante aproximada de cómo pueden ser las capas exteriores del planeta, pero nadie está seguro de hasta dónde penetra esa capa de hidrógeno líquido y se desconoce si el núcleo tiene elementos pesados en su interior.

Con todo las últimas teorías han apuntado a la posibilidad de que exista un núcleo borroso en Júpiter, una idea que en resumen se apoya sobre el método de la inestabilidad de disco para la creación de planetas y sugiere que Júpiter tiene un núcleo no definido con dos grandes capas: una “disuelta” y otra sólida con elementos muy pesados.

4-Sus cinturones y la Gran Mancha Roja tienen una profundidad enorme

Las imágenes que todos conocemos de Júpiter nos muestran un compendio de rayas gruesas y tormentas arremolinadas con diferentes tonalidades. Esas imágenes representan únicamente las zonas superiores y externas de las nubes que cubren el planeta, lo que significa que era imposible determinar su profundidad real.

Descubrir la profundidad que tienen esos cinturones y la Gran Mancha Roja podía ayudarnos a comprender mejor algunas cuestiones relacionadas con el clima y con las tormentas que azotan a Júpiter, una tarea que la sonda Juno está desarrollando desde que llegó a las inmediaciones de Júpiter.

Todavía no tenemos toda la información que necesitamos para resolver este misterio, pero los datos que ha ido recopilando Juno durante los últimos años nos han permitido arrojar un poco de luz sobre este tema y empezar a resolver el misterio. Así, sabemos que la profundidad de la Gran Mancha Roja es entre 50 y 100 veces mayor que la de los océanos de la Tierra, y que sus cinturones pueden llegar a los 3.000 kilómetros de profundidad.

5-Franjas de colores formadas por nubes de amoníaco

Júpiter es un espectáculo de colores, ¿pero cómo consigue este gigante mostrar esos cinturones tormentosos y esas manchas tan coloridas? Como sabemos este planeta no tiene una superficie sólida, es un gigante de gas con vientos huracanados.

Pues bien, en sus diferentes capas gaseosas se produce lo que se conoce como corrientes de chorro que transportan grandes nubes de amoníaco en la atmósfera exterior de Júpiter, formando esas franjas y manchas tan características de tonos rojos, anaranjados, blancos, marrones y amarillos.

Esas corrientes de chorro circulan de oeste a este e interactúan con el campo magnético de Júpiter. También son muy diferentes a las que encontramos en la Tierra. En nuestro planeta son onduladas e irregulares, mientras que en Júpiter son rectas. Según los expertos esto se debe a que en Júpiter no hay continentes ni montañas debajo de la atmósfera que obstruyan el camino de las corrientes en chorro, lo que hace que sean más simples que las de nuestro planeta.

Enlaces de interés: Cinco grandes misterios sobre Marte que igual no conocías.

Continuar leyendo

Lo más leído