Web
Analytics
Conecta con nosotros

A Fondo

5 alternativas gratuitas a Microsoft Office

Publicado el
Office Alternativas

Microsoft Office lleva aproximadamente tres décadas dominando el mercado de las suites ofimáticas, un dominio que está más que justificado, ya que las distintas versiones lanzadas siempre se han mostrado como lo mejor dentro de su segmento, pudiéndose decir que hasta muy por encima de sus competidores.

Sin embargo, el hecho de que Microsoft Office (MS Office) sea una solución muy completa y llena de posibilidades hace que muchas de sus características resulten prescindibles para la mayoría de los usuarios, que usan poco más que el procesador de textos (Word) a nivel básico.

Además, al igual que pasa con los navegadores web, el fuerte dominio de un producto no quiere decir que no haya alternativas, sino más bien al contrario. En la actualidad hay muchas opciones gratuitas bastante competentes que pueden hacer que el usuario básico se olvide de MS Office, y de las cuales vamos a mencionar cinco.

LibreOffice

A día de hoy es la alternativa más sólida a Microsoft Office y la más mediática. De hecho, en MuyComputer damos bastante cobertura a esta suite cuyo desarrollo se inició a partir de una bifurcación de OpenOffice por parte de la comunidad.

Además de ser gratuito, es un proyecto software libre publicado bajo diversas licencias, aunque la principal es la MPLv2.0. Sus aplicaciones son Writer (procesador de textos), Calc (hojas de cálculo), Impress (diapositivas), Math (creación y edición de fórmulas matemáticas), Draw (editor de gráficos vectoriales) y Base (gestión de bases de datos similar a Access).

Aunque cualitativamente está lejos de MS Office, LibreOffice es una solución bastante completa que puede cubrir las necesidades de más del 90% de los usuarios. Por defecto utiliza su propio formato de documentos, ODF, aunque también soporta tanto los más recientes (Docx, Xlsx, Pptx… ) como los antiguos (Doc, Xls, Ppt… ) de Microsoft. Es multiplataforma, abarcando Windows, Mac y Linux (suele ser la suite de referencia en el caso del último).

En caso de utilizar varios sistemas operativos distintos para el escritorio y preferir una suite ofimática que funcione localmente, LibreOffice se perfila como la solución de referencia ante estas situaciones.

LibreOffice

OpenOffice

Es el “padre” de LibreOffice y fue durante muchos años la gran referencia de la suites ofimáticas libres. Anteriormente llamado OpenOffice.org y nació en el año 2000 fruto de la liberación del código fuente de StarOffice por parte de Sun Microsystems.

Pasó a estar bajo Oracle tras adquirir esta a Sun Microsystems y luego fue donada en 2011 a la Fundación Apache, que desde entonces es la encargada de gestionar OpenOffice como proyecto e impulsar su desarrollo. Esto trajo consigo el cambio de licencia a Apache, y aunque en principio pudo responder al desafío que supuso LibreOffice, terminó claudicando de facto debido a la menor cantidad de recursos de los que dispone. El hecho de que LibreOffice haya mostrando una gran evolución en los últimos años ha forzado a OpenOffice a luchar por no caer en la irrelevancia.

Pese a todo, sigue siendo una suite ofimática muy capaz y que ofrece soporte para Windows, Mac y Linux. Como aplicaciones cuenta con las mismas que LibreOffice bajo los mismo nombres y soporta los formatos de Microsoft, aunque no es capaz de exportar, al menos por defecto, a los formatos más recientes del gigante de Redmond para documentos de ofimática.

OpenOffice

WPS Office

WPS Office es otra alternativa gratuita a MS Office, aunque es un software privativo de origen chino que no tiene ninguna vinculación con OpenOffice.

WPS Office, que anteriormente se llamaba Kingsoft Office, destaca sobre todo por lo bien que soporta los documentos bajo los formatos de Microsoft, haciendo que muchos usuarios prefieren utilizarlo como alternativa a MS Office frente a LibreOffice y OpenOffice. Aunque no lo parezca, se trata de un proyecto bastante veterano, cuya primera versión apareció en 1988.

Entre sus aplicaciones cuenta con un procesador de textos (Writer), hojas de cálculo (Spreadsheets) y diapositivas (Presentations). No tiene ningún software para la gestión de bases datos, manipulación de fórmulas matemáticas ni manipulación de gráficos vectoriales. Pese a ello, como ya hemos comentado al principio, la mayoría de los usuarios utilizan poco más que el procesador de textos de forma básica, así que esta solución cubre de sobra sus necesidades. Tiene una versión de pago con más características frente a la gratuita.

Oficialmente ofrece soporte para Windows, Mac, Android, iOS y Linux, aunque los usuarios de este último sistema se han quejado en más de una ocasión del trato recibido por parte de Kingsoft.

WPS Office

Google Docs

Vivimos en una era en la que el almacenamiento en la nube ha ganado mucho protagonismo, así que la utilización de una suite ofimática que funcione a través de Internet puede ser una buena alternativa. Además de ahorrar espacio en disco, se gana en otros aspectos como la posibilidad de poder editar los documentos en cualquier lugar e incluso a través de múltiples dispositivos, con la única limitación de necesitar conexión a Internet (aunque muchas suites que se instalan de forma local en la actualidad ya ofrecen la posibilidad de guardar o interaccionar con soluciones en la nube).

Debido a la gran difusión de Android, miles de millones de personas tienen al menos una cuenta de Google, así que la utilización de Google Docs está a la alcance de casi todos. A nivel de aplicaciones ofrece procesador de texto (Docs), hojas de cálculo (Sheets), presentaciones (Slides), software de encuestas (Forms), creación de web (Sites), editor de superposición de mapas (My Maps), editor de código para el lenguaje G-Apps Script (Apps Script) y gestor de bases de datos (Fusion Tables).

A nivel de escritorio posiblemente sea más sencillo utilizar Google Docs a través del navegador web Google Chrome u otro basado en Chromium, aunque en dispositivos móviles (iOS, Android y BlackBerry) sería preferible utilizar las aplicaciones oficiales. Los documentos generados, subidos o compartidos se guardan en Google Drive y permite subir y descargar tanto en los formatos de LibreOffice y OpenOffice como los más recientes de Microsoft.

Google Docs

FreeOffice

FreeOffice es una suite ofimática gratuita basada en la tecnología de SoftMaker Office (que es de pago e incluye más características), cuya desarrolladora es la empresa alemana SoftMaker Software. Lo primero que destaca de esta suite es el hecho de utilizar una interfaz gráfica al estilo Ribbon y está optimizada para su uso en pantallas táctiles.

FreeOffice tiene como aplicaciones un procesador de textos (TextMaker), hojas de cálculo (PlanMaker) y presentaciones (Presentations). Es software privativo y su principal virtud es el soporte que ofrece para formatos de documentos más recientes de Microsoft, además de manejar los suyos propios. Está disponible para Windows, Linux y Android y pesar de no ser mediático se trata de un desarrollo veterano, ya que la primera versión apareció en el año 1994.

SoftMaker FreeOffice

Conclusión

A pesar de que Microsoft Office es omnipresente, esto no quiere decir que no haya alternativas gratuitas de calidad que puedan cubrir satisfactoriamente las necesidades de los usuarios, sobre todo aquellos de un perfil más básico. Estas alternativas ofrecen en muchos casos un mejor soporte multiplataforma al abarcar Linux o bien apoyarse en la web, lo que disminuye la dependencia del sistema operativo (en el caso de Google Docs, hasta Chrome OS sirve).

A Fondo

Quadro RTX con GPU Turing: así es lo nuevo de NVIDIA

Publicado

el

NVIDIA ha anunciado las Quadro RTX, una nueva generación de tarjetas gráficas que están basadas en la nueva arquitectura Turing y que representan un avance importante frente a las generaciones anteriores basadas en Pascal y en Volta.

Antes de empezar debemos tener claro que Turing es una evolución de Volta, lo que significa que encontramos elementos que estaban presentes en dicha arquitectura y que se combinan con otros nuevos para potenciar el rendimiento y las posibilidades de esta nueva generación.

En términos de potencia bruta el mayor cambio que hemos podido ver en las Quadro RTX ha sido la introducción de núcleos dedicados al trazado de rayos. Los que nos leéis habitualmente recordaréis que ya os adelantamos en este artículo que esta tecnología iba a centrar todos los esfuerzos de NVIDIA, y que la compañía podría tirar de los núcleos ténsor para mejorar el rendimiento de sus nuevas tarjetas gráficas, algo que al final se ha cumplido pero con matices.

Las Quadro RTX cuentan con un núcleo gráfico que podemos dividir en tres grandes partes:

  • Núcleos CUDA (shaders): es la parte “básica” que ya conocemos y sobre la que recaen trabajos generales de computación y de renderizado , aunque también puede trabajar con otras cargas como la inteligencia artificial y el aprendizaje profundo.
  • Núcleos ténsor: es un bloque especializado y dedicado a trabajar con sistemas de aprendizaje profundo e inteligencia artificial.
  • Núcleos RT: otro bloque especializado y la principal novedad de Turing. Está pensado para acelerar el trabajo con trazado de rayos.

En este caso tenemos por tanto dos especializaciones fundamentales: el subsistema para IA y aprendizaje profundo y el subsistema para trazado de rayos. Ya hemos visto que la especialización puede marcar una gran diferencia y en este caso no estamos ante una excepción. Los núcleos ténsor presentes en la Tesla V100 de NVIDIA alcanzaban picos de 125 TFLOPs y los núcleos RTX para trazado de rayos impulsan el rendimiento para ofrecer una mejora de hasta x25 frente a Pascal.

Quadro RTX: modelos y especifiaciones

De momento han sido confirmadas un total de tres tarjetas gráficas Quadro RTX. Esta línea está pensada para profesionales y por ello cuenta con soporte oficial de controladores específicos para aplicaciones de diseño gráfico, renderizado, creación de contenidos y otras especializadas dentro del sector científico.

Ese soporte marca una diferencia importante frente a las GeForce de consumo general, pero no es la única diferencia. La serie Quadro viene con memoria ECC (corrección de errores), una característica que representa un valor muy importante, sobre todo para aquellos que necesiten trabajar con simulaciones y cargas muy complejas que consumen una gran cantidad de memoria. Un simple error puede dar al traste con una simulación completa de varias horas, problema que sufrían las GTX TITAN V por carecer de ECC como vimos en este artículo, así que su valor está fuera de toda duda.

Pasamos a ver las especificaciones fundamentales de las nuevas Quadro RTX:

  • Quadro RTX 5000: 3.072 núcleos CUDA, 384 núcleos ténsor, 6 GigaRays/s, bus de 384 bits y 16 GB de GDDR6. Costará 2.300 dólares.
  • Quadro RTX 6000: 4.608 núcleos CUDA, 576 núcleos ténsor, 10 GigaRays/s, bus de 384 bits y 24 GB de GDDR6. Costará 6.300 dólares.
  • Quadro RTX 8000: 4.608 núcleos CUDA, 576 núcleos ténsor, 10 GigaRays/s, bus de 384 bits y 48 GB de GDDR6. Costará 10.000 dólares.

Estarán disponibles a finales de este año y serán compatibles con NVIDIA NVLink, que permitirá utilizar dos tarjetas gráficas como si fuera una. Estas son algunas de las claves más importantes que ha confirmado NVIDIA:

  • Nuevos núcleos RT para mejorar el rendimiento con trazado de rayos en tiempo real de objetos y entornos con sombras, reflejos, refracciones e iluminación global físicamente precisos.
  • Turing Tensor Cores para acelerar el entrenamiento y la inferencia de redes neuronales profundas, que son fundamentales para impulsar productos, servicios y renderización mejorada con inteligencia artificial.
  • Nueva arquitectura Turing Streaming Multiprocessor, que cuenta con hasta 4.608 núcleos CUDA, ofrece hasta 16 billones de operaciones de punto flotante en paralelo con 16 billones de operaciones de enteros por segundo para acelerar la compleja simulación de la física del mundo real.
  • Tecnologías de sombreado programables avanzadas para mejorar el rendimiento de efectos visuales complejos y experiencias intensivas en gráficos.
  • Primera implementación de la memoria Samsung GDDR6 de 16 Gb.
  • La tecnología NVIDIA NVLink permite combinar dos GPU con un enlace de alta velocidad para escalar la capacidad de la memoria de hasta 96 GB y aumentar el rendimiento con hasta 100 GB/s de transferencia de datos.
  • Soporte de hardware para USB Type-C y VirtualLink, un nuevo estándar abierto de la industria que se desarrolla para satisfacer las demandas de potencia, pantalla y ancho de banda de los auriculares VR de próxima generación a través de un único conector USB-C .
  • Tecnologías nuevas y mejoradas para mejorar el rendimiento de las aplicaciones de realidad virtual, incluido el sombreado de tasa variable, el renderizado de múltiples vistas y el sonido VRWorks.

¿Y qué hay de las GeForce RTX 2080 y GeForce GTX 2070?

Es una buena pregunta y tenemos buenas noticias. Las Quadro de NVIDIA siempre han mantenido una base común con las GeForce, es decir son prácticamente idénticas en términos de shaders y sus diferencias se reducen a la ausencia de ECC, a la carencia de la optimización a nivel de drivers para aplicaciones profesionales y a una (por lo general) reducción de memoria gráfica.

Por si alguien duda de esto tranquilidad, lo ilustramos con un ejemplo: la Quadro P5000 tiene 2.560 shaders, bus de 256 bits y 16 GB de memoria GDDR5X. Es un calco de la GTX 1080 salvo por todo lo que hemos dicho anteriormente; ECC drivers y memoria gráfica, ya que la GeForce tiene 8 GB de GDDR5X.

Pues bien, esto nos lleva a una conclusión tan simple como interesante y es que la GeForce RTX 2080 podría tener las mismas especificaciones que la Quadro RTX 5000 pero con un pequeño recorte en términos de memoria gráfica, es decir mantendría los 3.072 shaders, el bus de 384 bits y 8 GB de GDDR6.

No podemos descartar que NVIDIA opte por ir más allá y que esa GeForce GTX 2080 acabe siendo un reflejo de la Quadro RTX 6000, lo que nos dejaría 4.608 shaders, bus de 384 bits y 16 GB de GDDR6. Si esto se cumple la Quadro RTX 5000 podría ser un reflejo de la GeForce RTX 2070.

Continuar leyendo

A Fondo

Intel Core 9000, modelos y precios para PCs de sobremesa

Publicado

el

Procesadores Intel

Los Core 9000, novena generación de procesadores de Intel, estarán en el mercado el 1 de octubre según las diapositivas filtradas por wccftech, donde también vemos modelos y precios de la gama de sobremesa.

Core 9000 serán (o deberían ser) los últimos procesadores de Intel antes del paso a los procesos tecnológicos de fabricación de 10 nanómetros. Las principales novedades pasan por la llegada de los modelos con ocho núcleos físicos de procesamiento (la primera vez que Intel los comercializa para el segmento del gran consumo) mayor seguridad contra Meltdown y Spectre, y, según los rumores, soldadura en el difusor térmico integrado abandonando el uso de la pasta térmica.

Una vuelta de tuerca con la misma arquitectura base y proceso de fabricación de 14 nm++ de los actuales Core serie 8000. Se instalarán sobre el socket LGA1151, aunque requerirán un placa base con chipset serie 300 para poder funcionar correctamente. Los principales fabricantes ya han anunciado la actualización de las BIOS / UEFI de sus placas base con chipset Z370 para soportarlos. No serán compatibles con las placas base con chipset serie 200 e inferiores.

Los modelos listados son los que te veníamos comentando, pero con mayores frecuencias de trabajo sobre lo previsto. Estarán encabezados por el Core i9 9900K, el tope de gama con 8 núcleos y 16 hilos con frecuencia de trabajo de 3,6 GHz y máximo de hasta 5 GHz con TurboBoost. 4 núcleos podrían funcionar a 4,8 GHz, mientras que con todos los núcleos activados la frecuencia ascendería a 4,7 GHz.

Tendrá 16 Mbytes totales de memoria caché, un consumo TDP de 95 vatios y un multiplicador desbloqueado como toda la serie “K”. Su precio de 450 dólares correspondería al aumento de número de núcleos. Contenido si tenemos en cuenta lo que cuestan los modelos de alto rendimiento HEDT, pero más caro que ningún procesador para el gran consumo mainstream de Intel.

El resto de modelos no tendría capacidad de HyperThreading y tendrían el mismo número de núcleos que de hilos, 8, 6 o 4 de los más económicos Core i3. De acuerdo con el documento, Intel liberaría primero los SKU de mayor potencia serie K en octubre, seguidos por el resto de la familia de la novena generación en el primer trimestre de Q1 2019 tras anuncio oficial en el CES como suele realizar habitualmente.

Z390, el nuevo chipset para los Core 9000

Los Core 9000 vendrán acompañados de un nuevo chipset Z390. Será la base para la creación de placas base y completará una serie que ofrece los chipsets H310 (gama básica), H370 (un peldaño por encima de la anterior), B360 (con soporte de memorias a mayor velocidad), las soluciones empresariales Q360 y Q370 y el Z370. Todas ellas serán compatibles después de una actualización de la BIOS/UEFI.

Como el resto de chipsets de la serie 300, el Z390 Express se conecta con un socket LGA-1151 a través de un chipset-bus DMI 3.0 y soporta 24 líneas PCI-Express 3.0.

Su configuración de almacenamiento también es similar al Z370, seis puertos SATA de 6 Gbps con soporte AHCI y RAID, y hasta tres conectores M.2 / U.2 de 32 Gbps. Las diferencias comienzan con la conectividad USB integrada. El Z390 Express saca directamente seis puertos USB 3.1 gen 2 de 10 Gbps y diez puertos USB 3.1 gen 1 de 5 Gbps. Si ello no te basta, también soporta catorce puertos 2.0 para un total de 30 puertos USB soportados.

Soportará memorias DDR4-2666 MHz (ampliable mediante overclocking) y la tecnología de memoria Intel Optane. Otra característica mencionada es la tecnología Intel SmartSound, que el documento especifica como un DSP para “descarga de audio / voz”. Sería un procesador digital de señales que reducirá la carga de la CPU al procesar la pila de audio. A nivel físico, el bus de audio sigue siendo el conocido “Azalia”.

Con el Z390 Express, Intel también está actualizando el conjunto de funciones de red de la plataforma. El chipset admite una interfaz MAC de 1 GbE y recomienda a los fabricantes de placas base que incluyan por defecto un módulo Intel AC 9560 con soporte para Wi-Fi 802.11ac y Bluetooth 5. Casi todas las placas contarán con soporte para redes inalámbricas y la mayoría de ellas incluirán tarjetas WLAN recomendadas por Intel.

Mayor seguridad contra Meltdown y Spectre

Además del aumento del número de núcleos en el modelo tope de gama y un posible aumento de frecuencias en los modelos “refrescados”, los nuevos procesadores tendrán modificaciones a nivel de silicio contra las vulnerabilidades Meltdown y Spectre.

El CEO de Intel, Brian Krzanich, prometió una solución permanente a nivel de silicio (hardware) para mitigar estas  vulnerabilidades que tienen en vilo a la industria tecnológica y consumidores desde primeros de año. Una respuesta ante la certeza que estas vulnerabilidades no podrán ser solucionadas al 100% mediante parches de software, ni siquiera actuando en el firmware, en todos todos los procesadores Intel actuales.

Así las cosas, además de emitir parches para los procesadores comercializados durante los cinco últimos años, sexta, séptima y octava generación Core (arquitecturas Skylake, Kaby Lake y Coffee Lake) y los procesadores de cuarta y quinta generación Core, Haswell y Broadwell, Intel prometió el lanzamiento de nuevos chips y ellos serían los Core 9000. Desconocemos si estarían a salvo de ataques contra todas las variantes conocidas y si conllevará una pérdida de rendimiento.

Transición a los 10 nm

Los Core 9000 serían una transición hasta la llegada de los procesadores “Ice Lake”, una familia que estrenarán una característica muy especial, un proceso tecnológico de fabricación de 10 nanómetros que será líder en la industria.

La mejora de los procesos de fabricación ha sido una constante los últimos años en el gigante del chip. Intel estrenó en la  plataforma Broadwell los procesos tecnológicos de fabricación más avanzados del sector de procesadores para PC con los 14 nanómetros, pero desde entonces no ha salido de ahí, si bien ha introducido mejoras en Skylake, Kaby Lake y Coffee Lake.

El próximo salto serán los 10 nm de los Ice Lake. No hay muchos detalles salvo un discreto anuncio previo de Intel, aunque es seguro el aumento de rendimiento a la vez que se reduce el tamaño de los chips. También el precio de producción y su consumo lo que redundará en una gran autonomía en equipos portátiles y convertibles con estos chips que incluirán la CPU, GPU y controladora de memoria en la misma die, aumentando la integración de componentes y partes del chipset.

Continuar leyendo

A Fondo

Cinco grandes misterios sobre Júpiter que quizá no conocías

Publicado

el

Júpiter es uno de los planetas más importantes del sistema solar. Puede que sea un gigante gaseoso y que la vida en él sea imposible, siempre teniendo en cuenta que hablamos de formas de vida basadas en el carbono, pero juega un papel crucial como “policía” del sistema solar, ya que gracias a su enorme atracción gravitatoria actúa como un gigantesco “escudo” contra asteroides y cometas.

Sin Júpiter la Tierra recibiría un bombardeo de asteroides y cometas muy superior al que registra actualmente. No hay consenso, pero los estudios más recientes han indicado que sin el papel de escudo que ejerce dicho planeta el impacto de asteroides sobre la Tierra se multiplicaría por cien. Este simple dato nos permite interiorizar mejor la importancia de ese gigante gaseoso.

Hace un par de años publicamos este artículo que nos permitió descubrir algunas cosas interesantes sobre Júpiter, y hoy hemos vuelto a poner la mirada sobre él para centrarnos en cinco grandes misterios sobre nuestro gigantesco vecino que vale la pena conocer. Esperamos que os guste y como siempre os invitamos a dejar vuestras propias aportaciones en los comentarios.

1-Es un gigante de gas cargado de elementos pesados

Júpiter es enorme, eso lo sabemos, pero también es el más masivo del sistema solar. Si hablamos de números concretos nos encontramos con que es 317 veces más masivo que la Tierra, un número que nos ayuda a entender por qué es considerado casi como un proyecto fallido de estrella.

Existe la creencia de que los planetas del sistema solar se formaron a partir de la misma nube de hidrógeno-helio de la que nació el Sol. Sin embargo la sonda Galileo, que estudió Júpiter en la década de 1990 al 2000, encontró grandes diferencias en la cantidad de elementos pesados que existe en Júpiter y en el Sol.

Esta realidad ha generado muchas dudas que han dado forma a múltiples hipótesis que tratan de explicar esa disparidad de elementos pesados en ambos cuerpos. Una de las que mayor credibilidad tienen sugiere que los elementos pesados ​​de Júpiter provienen de los numerosos cometas, asteroides y otros cuerpos pequeños que ha absorbido y “consumido” durante todos los años que lleva actuando como “escudo” en el sistema solar.

2-Aglutina una enorme cantidad de agua, ¿pero qué cantidad exacta?

Sé lo que estáis pensando, ¿para qué queremos saber cuánta agua tiene un gigante gaseoso? Es una buena pregunta y la respuesta es muy simple, porque nos ayuda a entender cómo se formó el planeta.

Como hemos dicho en el primer punto la presencia de elementos pesados en Júpiter es un síntoma claro de que pudo haber particularidades durante su formación. Parte de esos elementos pudo llegar a través de cometas y asteroides y es muy probable que llevaran también hielo y agua.

Conocer la abundancia de agua que existe en Júpiter nos ayudará a determinar la forma original en la que pudo llegar al planeta y contribuirá a definir las condiciones y procesos que ocurrieron en la nube original de polvo y gas que condujo a la formación del mismo.

3-Júpiter podría tener un núcleo borroso

Júpiter tiene una física muy complicada, tanto que ni siquiera el poder de la imaginación de los científicos es suficiente para completarla. Este planeta está formado en un 90% por hidrógeno, un elemento que está presente en las capas exteriores en forma gaseosa.

Sin embargo en las capas más profundas del planeta el hidrógeno se encuentra a una presión tan alta que sus electrones son expulsados y se crea un fluido que conduce la electricidad tan bien como un metal. Esto crea un enorme campo magnético dentro del planeta que además se ve reforzado por la rápida rotación de Júpiter.

Tenemos una idea bastante aproximada de cómo pueden ser las capas exteriores del planeta, pero nadie está seguro de hasta dónde penetra esa capa de hidrógeno líquido y se desconoce si el núcleo tiene elementos pesados en su interior.

Con todo las últimas teorías han apuntado a la posibilidad de que exista un núcleo borroso en Júpiter, una idea que en resumen se apoya sobre el método de la inestabilidad de disco para la creación de planetas y sugiere que Júpiter tiene un núcleo no definido con dos grandes capas: una “disuelta” y otra sólida con elementos muy pesados.

4-Sus cinturones y la Gran Mancha Roja tienen una profundidad enorme

Las imágenes que todos conocemos de Júpiter nos muestran un compendio de rayas gruesas y tormentas arremolinadas con diferentes tonalidades. Esas imágenes representan únicamente las zonas superiores y externas de las nubes que cubren el planeta, lo que significa que era imposible determinar su profundidad real.

Descubrir la profundidad que tienen esos cinturones y la Gran Mancha Roja podía ayudarnos a comprender mejor algunas cuestiones relacionadas con el clima y con las tormentas que azotan a Júpiter, una tarea que la sonda Juno está desarrollando desde que llegó a las inmediaciones de Júpiter.

Todavía no tenemos toda la información que necesitamos para resolver este misterio, pero los datos que ha ido recopilando Juno durante los últimos años nos han permitido arrojar un poco de luz sobre este tema y empezar a resolver el misterio. Así, sabemos que la profundidad de la Gran Mancha Roja es entre 50 y 100 veces mayor que la de los océanos de la Tierra, y que sus cinturones pueden llegar a los 3.000 kilómetros de profundidad.

5-Franjas de colores formadas por nubes de amoníaco

Júpiter es un espectáculo de colores, ¿pero cómo consigue este gigante mostrar esos cinturones tormentosos y esas manchas tan coloridas? Como sabemos este planeta no tiene una superficie sólida, es un gigante de gas con vientos huracanados.

Pues bien, en sus diferentes capas gaseosas se produce lo que se conoce como corrientes de chorro que transportan grandes nubes de amoníaco en la atmósfera exterior de Júpiter, formando esas franjas y manchas tan características de tonos rojos, anaranjados, blancos, marrones y amarillos.

Esas corrientes de chorro circulan de oeste a este e interactúan con el campo magnético de Júpiter. También son muy diferentes a las que encontramos en la Tierra. En nuestro planeta son onduladas e irregulares, mientras que en Júpiter son rectas. Según los expertos esto se debe a que en Júpiter no hay continentes ni montañas debajo de la atmósfera que obstruyan el camino de las corrientes en chorro, lo que hace que sean más simples que las de nuestro planeta.

Enlaces de interés: Cinco grandes misterios sobre Marte que igual no conocías.

Continuar leyendo

Lo más leído