Web
Analytics
Conecta con nosotros

A Fondo

Cinco cosas que NVIDIA debería cambiar si quiere mejorar

Publicado el
NVIDIA

NVIDIA mantiene un cómodo liderato en el sector de tarjetas gráficas para consumo y también para entornos profesionales, de ello no hay duda. AMD y la serie Radeon han tenido momentos mejores, aunque el sector del criptominado y las soluciones semipersonalizadas han dado un gran impulso a la división gráfica de la compañía y les ha permitido cerrar generación con unos números muy positivos.

Estar a la cabeza de un sector determinado no tiene porqué ser malo, pero cuando esa posición se mantiene con demasiada comodidad y de forma prolongada es fácil que empiecen a surgir malas prácticas que acaben siendo perjudiciales para el consumidor y para la imagen de la compañía. Dormirse en los laureles del éxito nunca es bueno pero NVIDIA lleva un tiempo haciéndolo, y por ello hemos querido dar forma a este especial en el que veremos cinco cosas que creemos que deberían cambiar para seguir mejorando.

1-Nombres de producto confusos

Es algo que NVIDIA lleva utilizando desde hace varios años, pero que con la serie GTX 10 ha alcanzado un punto intolerable. No hablamos por hablar: la GTX 1060 se ofrece en dos versiones diferentes, 3 GB y 6 GB, la GT 1030 se comercializa con memoria DDR4 y GDDR5, la GTX 1050 tiene una versión de 2 GB y otra de 3 GB y la GTX TITAN X existe en dos versiones: Maxwell y Pascal.

Mantener ese esquema puede que no sea un problema para los usuarios con conocimientos avanzados, pero aquellos que se encuentran en un nivel inferior pueden acabar eligiendo la tarjeta gráfica equivocada y llevarse una desagradable sorpresa por el uso de nomenclaturas confusas e inapropiadas.

NVIDIA lo tiene muy fácil para solucionar este problema: centrar la diferenciación de modelos más potentes sobre el distintivo TI. Por ejemplo la GTX 1060 Ti y GTX 1060. En el caso de modelos inferiores o con especificaciones similares lo más sencillo es cambiar la numeración. Por ejemplo la GT 1030 con DDR4 podría haberse llamado GT 1020.

2-Exceso de productos y modelos redundantes

Pascal ha sido un éxito, pero NVIDIA ha lanzado demasiadas tarjetas gráficas diferentes: dos modelos de GT 1030, tres modelos de GTX 1050, tres modelos de GTX 1060 (incluyendo la versión con GDDR5 a 9 GHz), dos modelos de GTX 1070, dos GTX 1080 (incluyendo la versión con GDDR5X a 11 GHz), una GTX 1080 TI y dos GTX TITAN X (la original y la xP).

Ese catálogo está cargado de versiones recortadas en posiciones que llegan a pisarse con los modelos más cercanos. Por ejemplo la GTX 1070 TI con overclock rinde al nivel de una GTX 1080, y la GTX 1050 de 2 GB rinde casi al mismo nivel que una GTX 1050 de 3 GB. Por su parte la GT 1030 con DDR4 ofrece un rendimiento tan malo que directamente no debería ni de existir.

Ofrecer una línea de productos simplificada y sin redundancias ayudaría al consumidor y mejoraría la imagen de NVIDIA.

3-Ajustar los precios de una vez

La burbuja ha explotado, ya no hay una demanda enorme por parte del sector del minado de criptodivisas y por tanto ya no hay razón para seguir cobrando las tarjetas gráficas a precio de oro.

Esta simple realidad ha quedado patente en una demanda a la baja y en una acumulación de stock muy grande que tanto NVIDIA como las principales ensambladoras parecen negarse a aceptar. La serie Pascal lleva ya dos años en el mercado, es una generación que pronto quedará “obsoleta” y su precio de venta es mayor que el que tenían cuando llegaron al mercado. Simplemente inaceptable.

Cuando antes se asuma esa realidad y antes se ajusten los precios de una manera apropiada antes podrán los de verde y sus ensambladoras empezar a limpiar stock. Mientras tanto seguirán ancladas en intentos vacíos de promociones sin sentido con precios inflados.

4-Optimización y GameWorks

Desde su introducción GameWorks ha generado una fuerte polémica. Es cierto que ya no se trata de algo totalmente exclusivo y limitado a las GPUs NVIDIA, pero el impacto en el rendimiento que tienen las tecnologías asociadas a dicho middleware sigue siendo enorme y no está justificado en absoluto.

Activar efectos como HairWorks puede llegar a reducir el rendimiento hasta en un 50%, todo para tener efectos de cabello y pelaje más realistas. Sin embargo este ejemplo no es nada comparado con el desastre que marcó Batman Arkham Knight, un título que en su versión para PC fue desarrollado alrededor de GameWorks y que acabó siendo un auténtico despropósito.

La optimización debería ser el objetivo principal de esta tecnología de NVIDIA, y no la introducción de mejoras gráficas prescindibles que acaban ahogando a la GPU.

5-Mejorar el soporte de generaciones anteriores

Entendemos que cuando llegue una nueva generación gráfica al anterior acabe desplazada, pero hay cosas que no podemos justificar de ninguna manera. La optimización a través de los nuevos controladores es algo fundamental, ya que permite a un juego aprovechar al máximo las tecnologías presentes en una determinada gama de tarjetas gráficas.

Descuidar el soporte de una generación a favor de otra puede generar diferencias muy marcadas que sin embargo resultan totalmente artificiales. Un ejemplo lo tenemos en Fortnite, título en el que una GTX 1060 de 3 GB ofrece prácticamente el mismo resultado que una GTX 980 de 4 GB, una tarjeta gráfica ésta última que en realidad está por encima de una GTX 1060 de 6 GB en la mayoría de los casos.

Podemos entender que una nueva generación tenga un mejor soporte que la anterior, pero se debería evitar que esto pueda llegar a marcar una diferencia artificial en casos concretos, ya que al final perjudica al consumidor.

Editor de la publicación on-line líder en audiencia dentro de la información tecnológica para profesionales. Al día de todas las tecnologías que pueden marcar tendencia en la industria.

A Fondo

Quadro RTX con GPU Turing: así es lo nuevo de NVIDIA

Publicado

el

NVIDIA ha anunciado las Quadro RTX, una nueva generación de tarjetas gráficas que están basadas en la nueva arquitectura Turing y que representan un avance importante frente a las generaciones anteriores basadas en Pascal y en Volta.

Antes de empezar debemos tener claro que Turing es una evolución de Volta, lo que significa que encontramos elementos que estaban presentes en dicha arquitectura y que se combinan con otros nuevos para potenciar el rendimiento y las posibilidades de esta nueva generación.

En términos de potencia bruta el mayor cambio que hemos podido ver en las Quadro RTX ha sido la introducción de núcleos dedicados al trazado de rayos. Los que nos leéis habitualmente recordaréis que ya os adelantamos en este artículo que esta tecnología iba a centrar todos los esfuerzos de NVIDIA, y que la compañía podría tirar de los núcleos ténsor para mejorar el rendimiento de sus nuevas tarjetas gráficas, algo que al final se ha cumplido pero con matices.

Las Quadro RTX cuentan con un núcleo gráfico que podemos dividir en tres grandes partes:

  • Núcleos CUDA (shaders): es la parte “básica” que ya conocemos y sobre la que recaen trabajos generales de computación y de renderizado , aunque también puede trabajar con otras cargas como la inteligencia artificial y el aprendizaje profundo.
  • Núcleos ténsor: es un bloque especializado y dedicado a trabajar con sistemas de aprendizaje profundo e inteligencia artificial.
  • Núcleos RT: otro bloque especializado y la principal novedad de Turing. Está pensado para acelerar el trabajo con trazado de rayos.

En este caso tenemos por tanto dos especializaciones fundamentales: el subsistema para IA y aprendizaje profundo y el subsistema para trazado de rayos. Ya hemos visto que la especialización puede marcar una gran diferencia y en este caso no estamos ante una excepción. Los núcleos ténsor presentes en la Tesla V100 de NVIDIA alcanzaban picos de 125 TFLOPs y los núcleos RTX para trazado de rayos impulsan el rendimiento para ofrecer una mejora de hasta x25 frente a Pascal.

Quadro RTX: modelos y especifiaciones

De momento han sido confirmadas un total de tres tarjetas gráficas Quadro RTX. Esta línea está pensada para profesionales y por ello cuenta con soporte oficial de controladores específicos para aplicaciones de diseño gráfico, renderizado, creación de contenidos y otras especializadas dentro del sector científico.

Ese soporte marca una diferencia importante frente a las GeForce de consumo general, pero no es la única diferencia. La serie Quadro viene con memoria ECC (corrección de errores), una característica que representa un valor muy importante, sobre todo para aquellos que necesiten trabajar con simulaciones y cargas muy complejas que consumen una gran cantidad de memoria. Un simple error puede dar al traste con una simulación completa de varias horas, problema que sufrían las GTX TITAN V por carecer de ECC como vimos en este artículo, así que su valor está fuera de toda duda.

Pasamos a ver las especificaciones fundamentales de las nuevas Quadro RTX:

  • Quadro RTX 5000: 3.072 núcleos CUDA, 384 núcleos ténsor, 6 GigaRays/s, bus de 384 bits y 16 GB de GDDR6. Costará 2.300 dólares.
  • Quadro RTX 6000: 4.608 núcleos CUDA, 576 núcleos ténsor, 10 GigaRays/s, bus de 384 bits y 24 GB de GDDR6. Costará 6.300 dólares.
  • Quadro RTX 8000: 4.608 núcleos CUDA, 576 núcleos ténsor, 10 GigaRays/s, bus de 384 bits y 48 GB de GDDR6. Costará 10.000 dólares.

Estarán disponibles a finales de este año y serán compatibles con NVIDIA NVLink, que permitirá utilizar dos tarjetas gráficas como si fuera una. Estas son algunas de las claves más importantes que ha confirmado NVIDIA:

  • Nuevos núcleos RT para mejorar el rendimiento con trazado de rayos en tiempo real de objetos y entornos con sombras, reflejos, refracciones e iluminación global físicamente precisos.
  • Turing Tensor Cores para acelerar el entrenamiento y la inferencia de redes neuronales profundas, que son fundamentales para impulsar productos, servicios y renderización mejorada con inteligencia artificial.
  • Nueva arquitectura Turing Streaming Multiprocessor, que cuenta con hasta 4.608 núcleos CUDA, ofrece hasta 16 billones de operaciones de punto flotante en paralelo con 16 billones de operaciones de enteros por segundo para acelerar la compleja simulación de la física del mundo real.
  • Tecnologías de sombreado programables avanzadas para mejorar el rendimiento de efectos visuales complejos y experiencias intensivas en gráficos.
  • Primera implementación de la memoria Samsung GDDR6 de 16 Gb.
  • La tecnología NVIDIA NVLink permite combinar dos GPU con un enlace de alta velocidad para escalar la capacidad de la memoria de hasta 96 GB y aumentar el rendimiento con hasta 100 GB/s de transferencia de datos.
  • Soporte de hardware para USB Type-C y VirtualLink, un nuevo estándar abierto de la industria que se desarrolla para satisfacer las demandas de potencia, pantalla y ancho de banda de los auriculares VR de próxima generación a través de un único conector USB-C .
  • Tecnologías nuevas y mejoradas para mejorar el rendimiento de las aplicaciones de realidad virtual, incluido el sombreado de tasa variable, el renderizado de múltiples vistas y el sonido VRWorks.

¿Y qué hay de las GeForce RTX 2080 y GeForce GTX 2070?

Es una buena pregunta y tenemos buenas noticias. Las Quadro de NVIDIA siempre han mantenido una base común con las GeForce, es decir son prácticamente idénticas en términos de shaders y sus diferencias se reducen a la ausencia de ECC, a la carencia de la optimización a nivel de drivers para aplicaciones profesionales y a una (por lo general) reducción de memoria gráfica.

Por si alguien duda de esto tranquilidad, lo ilustramos con un ejemplo: la Quadro P5000 tiene 2.560 shaders, bus de 256 bits y 16 GB de memoria GDDR5X. Es un calco de la GTX 1080 salvo por todo lo que hemos dicho anteriormente; ECC drivers y memoria gráfica, ya que la GeForce tiene 8 GB de GDDR5X.

Pues bien, esto nos lleva a una conclusión tan simple como interesante y es que la GeForce RTX 2080 podría tener las mismas especificaciones que la Quadro RTX 5000 pero con un pequeño recorte en términos de memoria gráfica, es decir mantendría los 3.072 shaders, el bus de 384 bits y 8 GB de GDDR6.

No podemos descartar que NVIDIA opte por ir más allá y que esa GeForce GTX 2080 acabe siendo un reflejo de la Quadro RTX 6000, lo que nos dejaría 4.608 shaders, bus de 384 bits y 16 GB de GDDR6. Si esto se cumple la Quadro RTX 5000 podría ser un reflejo de la GeForce RTX 2070.

Continuar leyendo

A Fondo

Intel Core 9000, modelos y precios para PCs de sobremesa

Publicado

el

Procesadores Intel

Los Core 9000, novena generación de procesadores de Intel, estarán en el mercado el 1 de octubre según las diapositivas filtradas por wccftech, donde también vemos modelos y precios de la gama de sobremesa.

Core 9000 serán (o deberían ser) los últimos procesadores de Intel antes del paso a los procesos tecnológicos de fabricación de 10 nanómetros. Las principales novedades pasan por la llegada de los modelos con ocho núcleos físicos de procesamiento (la primera vez que Intel los comercializa para el segmento del gran consumo) mayor seguridad contra Meltdown y Spectre, y, según los rumores, soldadura en el difusor térmico integrado abandonando el uso de la pasta térmica.

Una vuelta de tuerca con la misma arquitectura base y proceso de fabricación de 14 nm++ de los actuales Core serie 8000. Se instalarán sobre el socket LGA1151, aunque requerirán un placa base con chipset serie 300 para poder funcionar correctamente. Los principales fabricantes ya han anunciado la actualización de las BIOS / UEFI de sus placas base con chipset Z370 para soportarlos. No serán compatibles con las placas base con chipset serie 200 e inferiores.

Los modelos listados son los que te veníamos comentando, pero con mayores frecuencias de trabajo sobre lo previsto. Estarán encabezados por el Core i9 9900K, el tope de gama con 8 núcleos y 16 hilos con frecuencia de trabajo de 3,6 GHz y máximo de hasta 5 GHz con TurboBoost. 4 núcleos podrían funcionar a 4,8 GHz, mientras que con todos los núcleos activados la frecuencia ascendería a 4,7 GHz.

Tendrá 16 Mbytes totales de memoria caché, un consumo TDP de 95 vatios y un multiplicador desbloqueado como toda la serie “K”. Su precio de 450 dólares correspondería al aumento de número de núcleos. Contenido si tenemos en cuenta lo que cuestan los modelos de alto rendimiento HEDT, pero más caro que ningún procesador para el gran consumo mainstream de Intel.

El resto de modelos no tendría capacidad de HyperThreading y tendrían el mismo número de núcleos que de hilos, 8, 6 o 4 de los más económicos Core i3. De acuerdo con el documento, Intel liberaría primero los SKU de mayor potencia serie K en octubre, seguidos por el resto de la familia de la novena generación en el primer trimestre de Q1 2019 tras anuncio oficial en el CES como suele realizar habitualmente.

Z390, el nuevo chipset para los Core 9000

Los Core 9000 vendrán acompañados de un nuevo chipset Z390. Será la base para la creación de placas base y completará una serie que ofrece los chipsets H310 (gama básica), H370 (un peldaño por encima de la anterior), B360 (con soporte de memorias a mayor velocidad), las soluciones empresariales Q360 y Q370 y el Z370. Todas ellas serán compatibles después de una actualización de la BIOS/UEFI.

Como el resto de chipsets de la serie 300, el Z390 Express se conecta con un socket LGA-1151 a través de un chipset-bus DMI 3.0 y soporta 24 líneas PCI-Express 3.0.

Su configuración de almacenamiento también es similar al Z370, seis puertos SATA de 6 Gbps con soporte AHCI y RAID, y hasta tres conectores M.2 / U.2 de 32 Gbps. Las diferencias comienzan con la conectividad USB integrada. El Z390 Express saca directamente seis puertos USB 3.1 gen 2 de 10 Gbps y diez puertos USB 3.1 gen 1 de 5 Gbps. Si ello no te basta, también soporta catorce puertos 2.0 para un total de 30 puertos USB soportados.

Soportará memorias DDR4-2666 MHz (ampliable mediante overclocking) y la tecnología de memoria Intel Optane. Otra característica mencionada es la tecnología Intel SmartSound, que el documento especifica como un DSP para “descarga de audio / voz”. Sería un procesador digital de señales que reducirá la carga de la CPU al procesar la pila de audio. A nivel físico, el bus de audio sigue siendo el conocido “Azalia”.

Con el Z390 Express, Intel también está actualizando el conjunto de funciones de red de la plataforma. El chipset admite una interfaz MAC de 1 GbE y recomienda a los fabricantes de placas base que incluyan por defecto un módulo Intel AC 9560 con soporte para Wi-Fi 802.11ac y Bluetooth 5. Casi todas las placas contarán con soporte para redes inalámbricas y la mayoría de ellas incluirán tarjetas WLAN recomendadas por Intel.

Mayor seguridad contra Meltdown y Spectre

Además del aumento del número de núcleos en el modelo tope de gama y un posible aumento de frecuencias en los modelos “refrescados”, los nuevos procesadores tendrán modificaciones a nivel de silicio contra las vulnerabilidades Meltdown y Spectre.

El CEO de Intel, Brian Krzanich, prometió una solución permanente a nivel de silicio (hardware) para mitigar estas  vulnerabilidades que tienen en vilo a la industria tecnológica y consumidores desde primeros de año. Una respuesta ante la certeza que estas vulnerabilidades no podrán ser solucionadas al 100% mediante parches de software, ni siquiera actuando en el firmware, en todos todos los procesadores Intel actuales.

Así las cosas, además de emitir parches para los procesadores comercializados durante los cinco últimos años, sexta, séptima y octava generación Core (arquitecturas Skylake, Kaby Lake y Coffee Lake) y los procesadores de cuarta y quinta generación Core, Haswell y Broadwell, Intel prometió el lanzamiento de nuevos chips y ellos serían los Core 9000. Desconocemos si estarían a salvo de ataques contra todas las variantes conocidas y si conllevará una pérdida de rendimiento.

Transición a los 10 nm

Los Core 9000 serían una transición hasta la llegada de los procesadores “Ice Lake”, una familia que estrenarán una característica muy especial, un proceso tecnológico de fabricación de 10 nanómetros que será líder en la industria.

La mejora de los procesos de fabricación ha sido una constante los últimos años en el gigante del chip. Intel estrenó en la  plataforma Broadwell los procesos tecnológicos de fabricación más avanzados del sector de procesadores para PC con los 14 nanómetros, pero desde entonces no ha salido de ahí, si bien ha introducido mejoras en Skylake, Kaby Lake y Coffee Lake.

El próximo salto serán los 10 nm de los Ice Lake. No hay muchos detalles salvo un discreto anuncio previo de Intel, aunque es seguro el aumento de rendimiento a la vez que se reduce el tamaño de los chips. También el precio de producción y su consumo lo que redundará en una gran autonomía en equipos portátiles y convertibles con estos chips que incluirán la CPU, GPU y controladora de memoria en la misma die, aumentando la integración de componentes y partes del chipset.

Continuar leyendo

A Fondo

Cinco grandes misterios sobre Júpiter que quizá no conocías

Publicado

el

Júpiter es uno de los planetas más importantes del sistema solar. Puede que sea un gigante gaseoso y que la vida en él sea imposible, siempre teniendo en cuenta que hablamos de formas de vida basadas en el carbono, pero juega un papel crucial como “policía” del sistema solar, ya que gracias a su enorme atracción gravitatoria actúa como un gigantesco “escudo” contra asteroides y cometas.

Sin Júpiter la Tierra recibiría un bombardeo de asteroides y cometas muy superior al que registra actualmente. No hay consenso, pero los estudios más recientes han indicado que sin el papel de escudo que ejerce dicho planeta el impacto de asteroides sobre la Tierra se multiplicaría por cien. Este simple dato nos permite interiorizar mejor la importancia de ese gigante gaseoso.

Hace un par de años publicamos este artículo que nos permitió descubrir algunas cosas interesantes sobre Júpiter, y hoy hemos vuelto a poner la mirada sobre él para centrarnos en cinco grandes misterios sobre nuestro gigantesco vecino que vale la pena conocer. Esperamos que os guste y como siempre os invitamos a dejar vuestras propias aportaciones en los comentarios.

1-Es un gigante de gas cargado de elementos pesados

Júpiter es enorme, eso lo sabemos, pero también es el más masivo del sistema solar. Si hablamos de números concretos nos encontramos con que es 317 veces más masivo que la Tierra, un número que nos ayuda a entender por qué es considerado casi como un proyecto fallido de estrella.

Existe la creencia de que los planetas del sistema solar se formaron a partir de la misma nube de hidrógeno-helio de la que nació el Sol. Sin embargo la sonda Galileo, que estudió Júpiter en la década de 1990 al 2000, encontró grandes diferencias en la cantidad de elementos pesados que existe en Júpiter y en el Sol.

Esta realidad ha generado muchas dudas que han dado forma a múltiples hipótesis que tratan de explicar esa disparidad de elementos pesados en ambos cuerpos. Una de las que mayor credibilidad tienen sugiere que los elementos pesados ​​de Júpiter provienen de los numerosos cometas, asteroides y otros cuerpos pequeños que ha absorbido y “consumido” durante todos los años que lleva actuando como “escudo” en el sistema solar.

2-Aglutina una enorme cantidad de agua, ¿pero qué cantidad exacta?

Sé lo que estáis pensando, ¿para qué queremos saber cuánta agua tiene un gigante gaseoso? Es una buena pregunta y la respuesta es muy simple, porque nos ayuda a entender cómo se formó el planeta.

Como hemos dicho en el primer punto la presencia de elementos pesados en Júpiter es un síntoma claro de que pudo haber particularidades durante su formación. Parte de esos elementos pudo llegar a través de cometas y asteroides y es muy probable que llevaran también hielo y agua.

Conocer la abundancia de agua que existe en Júpiter nos ayudará a determinar la forma original en la que pudo llegar al planeta y contribuirá a definir las condiciones y procesos que ocurrieron en la nube original de polvo y gas que condujo a la formación del mismo.

3-Júpiter podría tener un núcleo borroso

Júpiter tiene una física muy complicada, tanto que ni siquiera el poder de la imaginación de los científicos es suficiente para completarla. Este planeta está formado en un 90% por hidrógeno, un elemento que está presente en las capas exteriores en forma gaseosa.

Sin embargo en las capas más profundas del planeta el hidrógeno se encuentra a una presión tan alta que sus electrones son expulsados y se crea un fluido que conduce la electricidad tan bien como un metal. Esto crea un enorme campo magnético dentro del planeta que además se ve reforzado por la rápida rotación de Júpiter.

Tenemos una idea bastante aproximada de cómo pueden ser las capas exteriores del planeta, pero nadie está seguro de hasta dónde penetra esa capa de hidrógeno líquido y se desconoce si el núcleo tiene elementos pesados en su interior.

Con todo las últimas teorías han apuntado a la posibilidad de que exista un núcleo borroso en Júpiter, una idea que en resumen se apoya sobre el método de la inestabilidad de disco para la creación de planetas y sugiere que Júpiter tiene un núcleo no definido con dos grandes capas: una “disuelta” y otra sólida con elementos muy pesados.

4-Sus cinturones y la Gran Mancha Roja tienen una profundidad enorme

Las imágenes que todos conocemos de Júpiter nos muestran un compendio de rayas gruesas y tormentas arremolinadas con diferentes tonalidades. Esas imágenes representan únicamente las zonas superiores y externas de las nubes que cubren el planeta, lo que significa que era imposible determinar su profundidad real.

Descubrir la profundidad que tienen esos cinturones y la Gran Mancha Roja podía ayudarnos a comprender mejor algunas cuestiones relacionadas con el clima y con las tormentas que azotan a Júpiter, una tarea que la sonda Juno está desarrollando desde que llegó a las inmediaciones de Júpiter.

Todavía no tenemos toda la información que necesitamos para resolver este misterio, pero los datos que ha ido recopilando Juno durante los últimos años nos han permitido arrojar un poco de luz sobre este tema y empezar a resolver el misterio. Así, sabemos que la profundidad de la Gran Mancha Roja es entre 50 y 100 veces mayor que la de los océanos de la Tierra, y que sus cinturones pueden llegar a los 3.000 kilómetros de profundidad.

5-Franjas de colores formadas por nubes de amoníaco

Júpiter es un espectáculo de colores, ¿pero cómo consigue este gigante mostrar esos cinturones tormentosos y esas manchas tan coloridas? Como sabemos este planeta no tiene una superficie sólida, es un gigante de gas con vientos huracanados.

Pues bien, en sus diferentes capas gaseosas se produce lo que se conoce como corrientes de chorro que transportan grandes nubes de amoníaco en la atmósfera exterior de Júpiter, formando esas franjas y manchas tan características de tonos rojos, anaranjados, blancos, marrones y amarillos.

Esas corrientes de chorro circulan de oeste a este e interactúan con el campo magnético de Júpiter. También son muy diferentes a las que encontramos en la Tierra. En nuestro planeta son onduladas e irregulares, mientras que en Júpiter son rectas. Según los expertos esto se debe a que en Júpiter no hay continentes ni montañas debajo de la atmósfera que obstruyan el camino de las corrientes en chorro, lo que hace que sean más simples que las de nuestro planeta.

Enlaces de interés: Cinco grandes misterios sobre Marte que igual no conocías.

Continuar leyendo

Lo más leído