Web
Analytics
Conecta con nosotros

A Fondo

El precio de los smartphones seguirá subiendo de forma sostenida

Publicado el
Galaxy Note 9

Los smartphones se encuentran en una etapa bastante complicada que sin duda merece una pequeña reflexión. A día de hoy es el dispositivo más popular en el sector de consumo general, todo un logro que hace unos años nos habría parecido prácticamente imposible.

En general los smartphones son dispositivos fáciles de utilizar, ofrecen una gran cantidad de funciones y además tienen precios de partida muy económicos. La llegada al sector de nuevos jugadores y el empuje de los vendedores chinos ha dado forma a un sector muy competitivo, y eso ha beneficiado al consumidor.

Actualmente es posible encontrar smartphones con un buen nivel de prestaciones a precios muy razonables, pero los modelos de gama alta han mostrado una tendencia clara: son cada vez más caros, una realidad que según los principales analistas no sólo no va a cambiar a corto o medio plazo, sino que además podría acabar extendiéndose a los modelos de gama media.

¿Qué está ocurriendo?

Lo primero que debemos tener en cuenta a la hora de hablar del precio de los smartphones es el coste de materiales. Un dispositivo móvil está fabricado con una serie de componentes entre los que destacan el SoC, la memoria RAM, la pantalla, las cámaras y la memoria NAND Flash que actúa como sistema de almacenamiento.

Pues bien, el coste de buena parte de esos componentes se está elevando de forma significativa, lo que acaba afectando al precio que deben asimilar los vendedores y que al final se acaba repercutiendo en los consumidores. La memoria DRAM es el máximo exponente ya que durante los últimos meses se ha encarecido de forma alarmante, pero los paneles OLED han corrido la misma suerte el salto de Apple con el iPhone X.

Si el precio de los componentes sigue subiendo y afecta sobre todo a componentes propios de la gama alta es normal que los smartphones de dicho rango sean cada vez más caros, aunque ésta no es la única razón que debemos tener en cuenta.

Nuevas funciones para justificar un mayor precio

Apple rompió la barrera de los 1.000 dólares con el iPhone X, un terminal que fue toda una revolución en el catálogo del gigante de Cupertino. Estrenó diseño y formato (19:9) y contribuyó a popularizar la polémica muesca superior, pero además marcó el salto de los de la manzana a los paneles OLED y supuso la llegada de Face ID, un sistema de autenticación biométrica que utiliza sensores 3D para ofrecer un reconocimiento facial altamente fiable.

Ese conjunto de novedades supuso un encarecimiento notable del coste de producción del terminal y acabó afectando al precio de venta. Muchos analistas se mostraron dudosos sobre el efecto que podría tener la barrera psicológica de los 1.000 dólares en los consumidores, pero los resultados son claros: es cierto que las ventas del iPhone X no cumplieron con las expectativas de Apple, pero han sido muy buenas.

Según los expertos esos buenos resultados han confirmado a los vendedores que los consumidores están dispuestos a pagar más por terminales que cuenten con nuevas funciones que puedan justificar el aumento del precio, y desde luego tienen una base clara sobre la que apoyar esa opinión. Por ejemplo el Huawei P20 Pro tiene una configuración de triple cámara trasera que ofrece un valor claro al usuario, pero al mismo tiempo eleva su coste de producción y su precio de venta.

Algunos analistas han llegado a comentar que no se sorprenderían si Apple decidiera vender el modelo base del iPhone X Plus 2018 a 1.200 dólares. Creen que habría revuelo en medios y redes, pero que la gente acabaría comprándolo igualmente.

Otras empresas como OnePlus han ido subiendo el precio de venta de sus smartphones tope de gama durante los últimos años hasta llegar a duplicarlo, una realidad que otras empresas como Xiaomi han podido mantener bajo control reduciendo sus márgenes de ganancias.

¿Dónde está el límite?

Es una buena pregunta, ¿cuánto está dispuesto a pagar un usuario por un smartphone de gama alta? Por más que intentemos encontrar una respuesta universal y absoluta no lo lograremos, ya que no existe un perfil único de consumidor y por tanto hay muchas variables.

La mayoría de los consumidores valoran la relación calidad precio de un smartphone, eso no admite discusión, pero éste gadget se ha convertido en un indicador de estatus y eso hace que muchos estén dispuestos a pagar un plus por diferenciarse de la mayoría, incluso aunque no vayan a utilizar las nuevas funciones o características de ese terminal de 1.000 dólares-euros que van a comprar.

Al final todo depende del presupuesto de cada usuario, de sus necesidades y de esa idea de “estatus” a la que hicimos referencia, pero es indiscutible que la idea de pagar 600 euros o más por un smartphone se ha “normalizado” y que esto está teniendo consecuencias en la aceptación de la llegada de terminales cada vez más potentes y más completos, pero también más caros.

Editor de la publicación on-line líder en audiencia dentro de la información tecnológica para profesionales. Al día de todas las tecnologías que pueden marcar tendencia en la industria.

A Fondo

Quadro RTX con GPU Turing: así es lo nuevo de NVIDIA

Publicado

el

NVIDIA ha anunciado las Quadro RTX, una nueva generación de tarjetas gráficas que están basadas en la nueva arquitectura Turing y que representan un avance importante frente a las generaciones anteriores basadas en Pascal y en Volta.

Antes de empezar debemos tener claro que Turing es una evolución de Volta, lo que significa que encontramos elementos que estaban presentes en dicha arquitectura y que se combinan con otros nuevos para potenciar el rendimiento y las posibilidades de esta nueva generación.

En términos de potencia bruta el mayor cambio que hemos podido ver en las Quadro RTX ha sido la introducción de núcleos dedicados al trazado de rayos. Los que nos leéis habitualmente recordaréis que ya os adelantamos en este artículo que esta tecnología iba a centrar todos los esfuerzos de NVIDIA, y que la compañía podría tirar de los núcleos ténsor para mejorar el rendimiento de sus nuevas tarjetas gráficas, algo que al final se ha cumplido pero con matices.

Las Quadro RTX cuentan con un núcleo gráfico que podemos dividir en tres grandes partes:

  • Núcleos CUDA (shaders): es la parte “básica” que ya conocemos y sobre la que recaen trabajos generales de computación y de renderizado , aunque también puede trabajar con otras cargas como la inteligencia artificial y el aprendizaje profundo.
  • Núcleos ténsor: es un bloque especializado y dedicado a trabajar con sistemas de aprendizaje profundo e inteligencia artificial.
  • Núcleos RT: otro bloque especializado y la principal novedad de Turing. Está pensado para acelerar el trabajo con trazado de rayos.

En este caso tenemos por tanto dos especializaciones fundamentales: el subsistema para IA y aprendizaje profundo y el subsistema para trazado de rayos. Ya hemos visto que la especialización puede marcar una gran diferencia y en este caso no estamos ante una excepción. Los núcleos ténsor presentes en la Tesla V100 de NVIDIA alcanzaban picos de 125 TFLOPs y los núcleos RTX para trazado de rayos impulsan el rendimiento para ofrecer una mejora de hasta x25 frente a Pascal.

Quadro RTX: modelos y especifiaciones

De momento han sido confirmadas un total de tres tarjetas gráficas Quadro RTX. Esta línea está pensada para profesionales y por ello cuenta con soporte oficial de controladores específicos para aplicaciones de diseño gráfico, renderizado, creación de contenidos y otras especializadas dentro del sector científico.

Ese soporte marca una diferencia importante frente a las GeForce de consumo general, pero no es la única diferencia. La serie Quadro viene con memoria ECC (corrección de errores), una característica que representa un valor muy importante, sobre todo para aquellos que necesiten trabajar con simulaciones y cargas muy complejas que consumen una gran cantidad de memoria. Un simple error puede dar al traste con una simulación completa de varias horas, problema que sufrían las GTX TITAN V por carecer de ECC como vimos en este artículo, así que su valor está fuera de toda duda.

Pasamos a ver las especificaciones fundamentales de las nuevas Quadro RTX:

  • Quadro RTX 5000: 3.072 núcleos CUDA, 384 núcleos ténsor, 6 GigaRays/s, bus de 384 bits y 16 GB de GDDR6. Costará 2.300 dólares.
  • Quadro RTX 6000: 4.608 núcleos CUDA, 576 núcleos ténsor, 10 GigaRays/s, bus de 384 bits y 24 GB de GDDR6. Costará 6.300 dólares.
  • Quadro RTX 8000: 4.608 núcleos CUDA, 576 núcleos ténsor, 10 GigaRays/s, bus de 384 bits y 48 GB de GDDR6. Costará 10.000 dólares.

Estarán disponibles a finales de este año y serán compatibles con NVIDIA NVLink, que permitirá utilizar dos tarjetas gráficas como si fuera una. Estas son algunas de las claves más importantes que ha confirmado NVIDIA:

  • Nuevos núcleos RT para mejorar el rendimiento con trazado de rayos en tiempo real de objetos y entornos con sombras, reflejos, refracciones e iluminación global físicamente precisos.
  • Turing Tensor Cores para acelerar el entrenamiento y la inferencia de redes neuronales profundas, que son fundamentales para impulsar productos, servicios y renderización mejorada con inteligencia artificial.
  • Nueva arquitectura Turing Streaming Multiprocessor, que cuenta con hasta 4.608 núcleos CUDA, ofrece hasta 16 billones de operaciones de punto flotante en paralelo con 16 billones de operaciones de enteros por segundo para acelerar la compleja simulación de la física del mundo real.
  • Tecnologías de sombreado programables avanzadas para mejorar el rendimiento de efectos visuales complejos y experiencias intensivas en gráficos.
  • Primera implementación de la memoria Samsung GDDR6 de 16 Gb.
  • La tecnología NVIDIA NVLink permite combinar dos GPU con un enlace de alta velocidad para escalar la capacidad de la memoria de hasta 96 GB y aumentar el rendimiento con hasta 100 GB/s de transferencia de datos.
  • Soporte de hardware para USB Type-C y VirtualLink, un nuevo estándar abierto de la industria que se desarrolla para satisfacer las demandas de potencia, pantalla y ancho de banda de los auriculares VR de próxima generación a través de un único conector USB-C .
  • Tecnologías nuevas y mejoradas para mejorar el rendimiento de las aplicaciones de realidad virtual, incluido el sombreado de tasa variable, el renderizado de múltiples vistas y el sonido VRWorks.

¿Y qué hay de las GeForce RTX 2080 y GeForce GTX 2070?

Es una buena pregunta y tenemos buenas noticias. Las Quadro de NVIDIA siempre han mantenido una base común con las GeForce, es decir son prácticamente idénticas en términos de shaders y sus diferencias se reducen a la ausencia de ECC, a la carencia de la optimización a nivel de drivers para aplicaciones profesionales y a una (por lo general) reducción de memoria gráfica.

Por si alguien duda de esto tranquilidad, lo ilustramos con un ejemplo: la Quadro P5000 tiene 2.560 shaders, bus de 256 bits y 16 GB de memoria GDDR5X. Es un calco de la GTX 1080 salvo por todo lo que hemos dicho anteriormente; ECC drivers y memoria gráfica, ya que la GeForce tiene 8 GB de GDDR5X.

Pues bien, esto nos lleva a una conclusión tan simple como interesante y es que la GeForce RTX 2080 podría tener las mismas especificaciones que la Quadro RTX 5000 pero con un pequeño recorte en términos de memoria gráfica, es decir mantendría los 3.072 shaders, el bus de 384 bits y 8 GB de GDDR6.

No podemos descartar que NVIDIA opte por ir más allá y que esa GeForce GTX 2080 acabe siendo un reflejo de la Quadro RTX 6000, lo que nos dejaría 4.608 shaders, bus de 384 bits y 16 GB de GDDR6. Si esto se cumple la Quadro RTX 5000 podría ser un reflejo de la GeForce RTX 2070.

Continuar leyendo

A Fondo

Intel Core 9000, modelos y precios para PCs de sobremesa

Publicado

el

Procesadores Intel

Los Core 9000, novena generación de procesadores de Intel, estarán en el mercado el 1 de octubre según las diapositivas filtradas por wccftech, donde también vemos modelos y precios de la gama de sobremesa.

Core 9000 serán (o deberían ser) los últimos procesadores de Intel antes del paso a los procesos tecnológicos de fabricación de 10 nanómetros. Las principales novedades pasan por la llegada de los modelos con ocho núcleos físicos de procesamiento (la primera vez que Intel los comercializa para el segmento del gran consumo) mayor seguridad contra Meltdown y Spectre, y, según los rumores, soldadura en el difusor térmico integrado abandonando el uso de la pasta térmica.

Una vuelta de tuerca con la misma arquitectura base y proceso de fabricación de 14 nm++ de los actuales Core serie 8000. Se instalarán sobre el socket LGA1151, aunque requerirán un placa base con chipset serie 300 para poder funcionar correctamente. Los principales fabricantes ya han anunciado la actualización de las BIOS / UEFI de sus placas base con chipset Z370 para soportarlos. No serán compatibles con las placas base con chipset serie 200 e inferiores.

Los modelos listados son los que te veníamos comentando, pero con mayores frecuencias de trabajo sobre lo previsto. Estarán encabezados por el Core i9 9900K, el tope de gama con 8 núcleos y 16 hilos con frecuencia de trabajo de 3,6 GHz y máximo de hasta 5 GHz con TurboBoost. 4 núcleos podrían funcionar a 4,8 GHz, mientras que con todos los núcleos activados la frecuencia ascendería a 4,7 GHz.

Tendrá 16 Mbytes totales de memoria caché, un consumo TDP de 95 vatios y un multiplicador desbloqueado como toda la serie “K”. Su precio de 450 dólares correspondería al aumento de número de núcleos. Contenido si tenemos en cuenta lo que cuestan los modelos de alto rendimiento HEDT, pero más caro que ningún procesador para el gran consumo mainstream de Intel.

El resto de modelos no tendría capacidad de HyperThreading y tendrían el mismo número de núcleos que de hilos, 8, 6 o 4 de los más económicos Core i3. De acuerdo con el documento, Intel liberaría primero los SKU de mayor potencia serie K en octubre, seguidos por el resto de la familia de la novena generación en el primer trimestre de Q1 2019 tras anuncio oficial en el CES como suele realizar habitualmente.

Z390, el nuevo chipset para los Core 9000

Los Core 9000 vendrán acompañados de un nuevo chipset Z390. Será la base para la creación de placas base y completará una serie que ofrece los chipsets H310 (gama básica), H370 (un peldaño por encima de la anterior), B360 (con soporte de memorias a mayor velocidad), las soluciones empresariales Q360 y Q370 y el Z370. Todas ellas serán compatibles después de una actualización de la BIOS/UEFI.

Como el resto de chipsets de la serie 300, el Z390 Express se conecta con un socket LGA-1151 a través de un chipset-bus DMI 3.0 y soporta 24 líneas PCI-Express 3.0.

Su configuración de almacenamiento también es similar al Z370, seis puertos SATA de 6 Gbps con soporte AHCI y RAID, y hasta tres conectores M.2 / U.2 de 32 Gbps. Las diferencias comienzan con la conectividad USB integrada. El Z390 Express saca directamente seis puertos USB 3.1 gen 2 de 10 Gbps y diez puertos USB 3.1 gen 1 de 5 Gbps. Si ello no te basta, también soporta catorce puertos 2.0 para un total de 30 puertos USB soportados.

Soportará memorias DDR4-2666 MHz (ampliable mediante overclocking) y la tecnología de memoria Intel Optane. Otra característica mencionada es la tecnología Intel SmartSound, que el documento especifica como un DSP para “descarga de audio / voz”. Sería un procesador digital de señales que reducirá la carga de la CPU al procesar la pila de audio. A nivel físico, el bus de audio sigue siendo el conocido “Azalia”.

Con el Z390 Express, Intel también está actualizando el conjunto de funciones de red de la plataforma. El chipset admite una interfaz MAC de 1 GbE y recomienda a los fabricantes de placas base que incluyan por defecto un módulo Intel AC 9560 con soporte para Wi-Fi 802.11ac y Bluetooth 5. Casi todas las placas contarán con soporte para redes inalámbricas y la mayoría de ellas incluirán tarjetas WLAN recomendadas por Intel.

Mayor seguridad contra Meltdown y Spectre

Además del aumento del número de núcleos en el modelo tope de gama y un posible aumento de frecuencias en los modelos “refrescados”, los nuevos procesadores tendrán modificaciones a nivel de silicio contra las vulnerabilidades Meltdown y Spectre.

El CEO de Intel, Brian Krzanich, prometió una solución permanente a nivel de silicio (hardware) para mitigar estas  vulnerabilidades que tienen en vilo a la industria tecnológica y consumidores desde primeros de año. Una respuesta ante la certeza que estas vulnerabilidades no podrán ser solucionadas al 100% mediante parches de software, ni siquiera actuando en el firmware, en todos todos los procesadores Intel actuales.

Así las cosas, además de emitir parches para los procesadores comercializados durante los cinco últimos años, sexta, séptima y octava generación Core (arquitecturas Skylake, Kaby Lake y Coffee Lake) y los procesadores de cuarta y quinta generación Core, Haswell y Broadwell, Intel prometió el lanzamiento de nuevos chips y ellos serían los Core 9000. Desconocemos si estarían a salvo de ataques contra todas las variantes conocidas y si conllevará una pérdida de rendimiento.

Transición a los 10 nm

Los Core 9000 serían una transición hasta la llegada de los procesadores “Ice Lake”, una familia que estrenarán una característica muy especial, un proceso tecnológico de fabricación de 10 nanómetros que será líder en la industria.

La mejora de los procesos de fabricación ha sido una constante los últimos años en el gigante del chip. Intel estrenó en la  plataforma Broadwell los procesos tecnológicos de fabricación más avanzados del sector de procesadores para PC con los 14 nanómetros, pero desde entonces no ha salido de ahí, si bien ha introducido mejoras en Skylake, Kaby Lake y Coffee Lake.

El próximo salto serán los 10 nm de los Ice Lake. No hay muchos detalles salvo un discreto anuncio previo de Intel, aunque es seguro el aumento de rendimiento a la vez que se reduce el tamaño de los chips. También el precio de producción y su consumo lo que redundará en una gran autonomía en equipos portátiles y convertibles con estos chips que incluirán la CPU, GPU y controladora de memoria en la misma die, aumentando la integración de componentes y partes del chipset.

Continuar leyendo

A Fondo

Cinco grandes misterios sobre Júpiter que quizá no conocías

Publicado

el

Júpiter es uno de los planetas más importantes del sistema solar. Puede que sea un gigante gaseoso y que la vida en él sea imposible, siempre teniendo en cuenta que hablamos de formas de vida basadas en el carbono, pero juega un papel crucial como “policía” del sistema solar, ya que gracias a su enorme atracción gravitatoria actúa como un gigantesco “escudo” contra asteroides y cometas.

Sin Júpiter la Tierra recibiría un bombardeo de asteroides y cometas muy superior al que registra actualmente. No hay consenso, pero los estudios más recientes han indicado que sin el papel de escudo que ejerce dicho planeta el impacto de asteroides sobre la Tierra se multiplicaría por cien. Este simple dato nos permite interiorizar mejor la importancia de ese gigante gaseoso.

Hace un par de años publicamos este artículo que nos permitió descubrir algunas cosas interesantes sobre Júpiter, y hoy hemos vuelto a poner la mirada sobre él para centrarnos en cinco grandes misterios sobre nuestro gigantesco vecino que vale la pena conocer. Esperamos que os guste y como siempre os invitamos a dejar vuestras propias aportaciones en los comentarios.

1-Es un gigante de gas cargado de elementos pesados

Júpiter es enorme, eso lo sabemos, pero también es el más masivo del sistema solar. Si hablamos de números concretos nos encontramos con que es 317 veces más masivo que la Tierra, un número que nos ayuda a entender por qué es considerado casi como un proyecto fallido de estrella.

Existe la creencia de que los planetas del sistema solar se formaron a partir de la misma nube de hidrógeno-helio de la que nació el Sol. Sin embargo la sonda Galileo, que estudió Júpiter en la década de 1990 al 2000, encontró grandes diferencias en la cantidad de elementos pesados que existe en Júpiter y en el Sol.

Esta realidad ha generado muchas dudas que han dado forma a múltiples hipótesis que tratan de explicar esa disparidad de elementos pesados en ambos cuerpos. Una de las que mayor credibilidad tienen sugiere que los elementos pesados ​​de Júpiter provienen de los numerosos cometas, asteroides y otros cuerpos pequeños que ha absorbido y “consumido” durante todos los años que lleva actuando como “escudo” en el sistema solar.

2-Aglutina una enorme cantidad de agua, ¿pero qué cantidad exacta?

Sé lo que estáis pensando, ¿para qué queremos saber cuánta agua tiene un gigante gaseoso? Es una buena pregunta y la respuesta es muy simple, porque nos ayuda a entender cómo se formó el planeta.

Como hemos dicho en el primer punto la presencia de elementos pesados en Júpiter es un síntoma claro de que pudo haber particularidades durante su formación. Parte de esos elementos pudo llegar a través de cometas y asteroides y es muy probable que llevaran también hielo y agua.

Conocer la abundancia de agua que existe en Júpiter nos ayudará a determinar la forma original en la que pudo llegar al planeta y contribuirá a definir las condiciones y procesos que ocurrieron en la nube original de polvo y gas que condujo a la formación del mismo.

3-Júpiter podría tener un núcleo borroso

Júpiter tiene una física muy complicada, tanto que ni siquiera el poder de la imaginación de los científicos es suficiente para completarla. Este planeta está formado en un 90% por hidrógeno, un elemento que está presente en las capas exteriores en forma gaseosa.

Sin embargo en las capas más profundas del planeta el hidrógeno se encuentra a una presión tan alta que sus electrones son expulsados y se crea un fluido que conduce la electricidad tan bien como un metal. Esto crea un enorme campo magnético dentro del planeta que además se ve reforzado por la rápida rotación de Júpiter.

Tenemos una idea bastante aproximada de cómo pueden ser las capas exteriores del planeta, pero nadie está seguro de hasta dónde penetra esa capa de hidrógeno líquido y se desconoce si el núcleo tiene elementos pesados en su interior.

Con todo las últimas teorías han apuntado a la posibilidad de que exista un núcleo borroso en Júpiter, una idea que en resumen se apoya sobre el método de la inestabilidad de disco para la creación de planetas y sugiere que Júpiter tiene un núcleo no definido con dos grandes capas: una “disuelta” y otra sólida con elementos muy pesados.

4-Sus cinturones y la Gran Mancha Roja tienen una profundidad enorme

Las imágenes que todos conocemos de Júpiter nos muestran un compendio de rayas gruesas y tormentas arremolinadas con diferentes tonalidades. Esas imágenes representan únicamente las zonas superiores y externas de las nubes que cubren el planeta, lo que significa que era imposible determinar su profundidad real.

Descubrir la profundidad que tienen esos cinturones y la Gran Mancha Roja podía ayudarnos a comprender mejor algunas cuestiones relacionadas con el clima y con las tormentas que azotan a Júpiter, una tarea que la sonda Juno está desarrollando desde que llegó a las inmediaciones de Júpiter.

Todavía no tenemos toda la información que necesitamos para resolver este misterio, pero los datos que ha ido recopilando Juno durante los últimos años nos han permitido arrojar un poco de luz sobre este tema y empezar a resolver el misterio. Así, sabemos que la profundidad de la Gran Mancha Roja es entre 50 y 100 veces mayor que la de los océanos de la Tierra, y que sus cinturones pueden llegar a los 3.000 kilómetros de profundidad.

5-Franjas de colores formadas por nubes de amoníaco

Júpiter es un espectáculo de colores, ¿pero cómo consigue este gigante mostrar esos cinturones tormentosos y esas manchas tan coloridas? Como sabemos este planeta no tiene una superficie sólida, es un gigante de gas con vientos huracanados.

Pues bien, en sus diferentes capas gaseosas se produce lo que se conoce como corrientes de chorro que transportan grandes nubes de amoníaco en la atmósfera exterior de Júpiter, formando esas franjas y manchas tan características de tonos rojos, anaranjados, blancos, marrones y amarillos.

Esas corrientes de chorro circulan de oeste a este e interactúan con el campo magnético de Júpiter. También son muy diferentes a las que encontramos en la Tierra. En nuestro planeta son onduladas e irregulares, mientras que en Júpiter son rectas. Según los expertos esto se debe a que en Júpiter no hay continentes ni montañas debajo de la atmósfera que obstruyan el camino de las corrientes en chorro, lo que hace que sean más simples que las de nuestro planeta.

Enlaces de interés: Cinco grandes misterios sobre Marte que igual no conocías.

Continuar leyendo

Lo más leído