Web Analytics
Conecta con nosotros

A Fondo

Xbox Two: Todo lo que sabemos y esperamos de esta consola

Publicado el
Xbox Two

Hace unos meses publicamos un artículo dedicado a hablar de PS5, una consola de nueva generación que sucederá a PS4 y que está llamada a convertirse en uno de los máximos exponentes del futuro del hardware para videojuegos. Su contraparte será Xbox Two, una consola que como su propio nombre indica sucederá a Xbox One.

Aprovechando la la confirmación que ha ofrecido Microsoft en el E3 sobre el desarrollo de su consola de próxima generación hemos decidido hacer un artículo especial dedicado a repasar todo lo que sabemos (y esperamos) de Xbox Two. El enfoque va a ser idéntico al del artículo de PS5, ya que creemos que nos permite ofreceros una visión completa y bien definida de todas las claves de esa nueva consola, pero manteniendo al mismo tiempo un nivel asequible para que pueda ser disfrutado por todos nuestros lectores.

Tened presente que Microsoft no ha dado todavía el nombre de su consola de próxima generación y que por tanto Xbox Two es sólo un “apodo” provisional que utilizamos para referirnos a ella de forma simplificada. Es muy probable que los de Redmond decidan mantenerlo ya que encaja perfectamente como sucesor lógico de Xbox One, pero debido a los resultados que ha cosechado esta última también cabe la posibilidad de que decidan utilizar un nombre que “rompa” directamente con aquella para transmitir al consumidor un cambio y una renovación profunda.

Tras esta extensa pero necesaria introducción empezamos con desgranar todas las claves de Xbox Two. Espero que disfrutéis del artículo y no dudéis en dejar vuestra opinión en los comentarios.

Xbox Two: una mirada a sus cimientos

Con Xbox One en Microsoft llevaron a cabo un salto importante frente a Xbox 360, ya que abandonaron los procesadores PowerPC de IBM a favor de la arquitectura x86. Esto ha tenido consecuencias importantes que ya conocemos: ha simplificado los desarrollos multiplataforma y ha abaratado los costes a nivel de plataforma, colocando a consolas y PC prácticamente al mismo nivel.

La única diferencia importante existe hoy en día entre ambas es el sistema operativo y los kits de desarrollo. Una consola es una plataforma pensada principalmente para jugar que está limitada a una configuración de hardware concreta, mientras que un PC permite una cantidad enorme de configuraciones distintas, lo que implica mayores dificultades a la hora de optimizar adecuadamente para todas y cada una de esas posibles configuraciones.

Al igual que ocurrió con Xbox One la optimización que permitirán los kits de desarrollo será fundamental en Xbox Two. Esperamos que Microsoft repita con una versión optimizada de Windows 10 y que apueste por DirectX 12 como API principal para los juegos de su nueva consola, aunque no podemos descartar el desarrollo de una nueva versión específica para potenciar aún más las capacidades de Xbox Two.

Volviendo al hardware los pilares claves de esta nueva consola quedarían tal que así:

  • CPU con arquitectura x86.
  • Solución gráfica de última generación fabricada por AMD.
  • Arquitectura de memoria unificada.
  • Unidad de almacenamiento incorporada. Seguramente un HDD para reducir costes.

A diferencia de lo que vimos en Xbox One, que utiliza 8 GB de memoria DDR3 unificada junto a un bloque de 32 MB de memoria eSRAM de alta velocidad. Como ya os hemos dicho en ocasiones anteriores esta configuración ha sido problemática y ha afectado negativamente al rendimiento de la consola, ya que la memoria DDR3 funciona a 2.133 MHz frente a los 5,5 GHz de la memoria GDDR5 de PS4. Esto significa que aunque cuenta también con un bus de 256 bits su ancho de banda total es de 68,3 GB/s frente a los 176 GB/s de PS4.

¿Y qué pinta la memoria eSRAM? Pues muy sencillo, esos 32 MB se utilizan a modo de caché para dar picos puntuales de ancho de banda que pueden alcanzar los 204 GB/s. Esto permite mejorar el rendimiento, pero complica los desarrollos y ofrece la misma solidez que una arquitectura más simple como la de PS4

Con Xbox One X los de Redmond corrigieron ese problema y dieron el salto a una arquitectura de memoria unificada que incluye 12 GB de GDDR5 a 6,8 GHz con un bus de 384 bits, lo que en conjunto se traduce en un ancho de banda de 326 GB/s. Obvia decir que la memoria eSRAM ya no está presente puesto que resulta innecesaria.

Pues bien es precisamente ésta última consola la que unida a las recientes filtraciones nos permite entrever las que serán las posibles especificaciones de Xbox Two.

Así quedaría configurada Xbox Two de Microsoft

Ya tenemos unas nociones básicas sobre las claves que servirán de base a Xbox Two, así que ahora toca ir concretando. Durante el E3 de este año el propio Phil Spencer ha reconocido que la descompensación a nivel CPU y GPU fue uno de los grandes errores de la presente generación de consolas, y que la retrocompatibilidad volverá a ser uno de los valores en su próxima generación.

Esto nos lleva a pensar que mantendrán grandes similitudes con Xbox One y Xbox One X para facilitar esa retrocompatibilidad, y que veremos un salto sustancial a nivel de especificaciones que sin embargo buscará un mayor equilibrio de componentes.

La idea de equilibrio es fundamental en una consola por varias razones:

  • Se trata de una plataforma cerrada que tendrá que estar preparada para mantener el tipo durante una vida útil bastante larga (entre 6 y 8 años).
  • Un desequilibrio de componentes puede no ser evidente en sus primeros años pero limitarla en gran medida en la segunda mitad de su ciclo de vida.
  • Puede limitar las opciones a la hora de introducir renovaciones intergeneracionales, algo que ya ocurrió con PS4 Pro y Xbox One X, que tuvieron que utilizar un procesador Jaguar de AMD para evitar quebraderos de cabeza al mantener el soporte a PS4 y Xbox One.

Aunque todavía no tenemos confirmadas las especificaciones de Xbox Two tenemos una base clara en Xbox One X y mucha información relacionada con AMD y su trabajo en soluciones semipersonalizadas para consolas. Con ello, nuestros conocimientos y una dosis de intuición podemos ofreceros una estimación bastante fiable de las que creemos que serán las características base de la próxima consola de Microsoft:

  • Procesador Ryzen personalizado en proceso de 12 nm con IPC idéntico al visto en los Ryzen 2000. Esperamos que sume ocho núcleos a una frecuencia aproximada de entre 3 GHz y 3,5 GHz.
  • 16 GB de memoria GDDR6 a 14 GHz sobre un bus de 256 bits (como mínimo).
  • Unidad de almacenamiento HDD de 1 TB o 2 TB.
  • GPU Navi de AMD en proceso de 7 nm con un rendimiento similar al de una Radeon RX Vega 64.

Como ya ocurrió con Xbox One y Xbox One X una parte de esas especificaciones quedará reservada al sistema. Es pronto para anticipar nada, pero por asimilación con la generación actual dos núcleos de la CPU y al menos 2 GB de memoria estarían reservados y no serían accesibles por los desarrolladores.

Potencia estimada, fecha de lanzamiento y precio

Si se confirma esa configuración tendríamos una consola capaz de mover juegos actuales en resoluciones 4K a 60 FPS sin problema y bastante equilibrada, ya que su CPU podría “alimentar” sin problemas a su GPU y sería capaz de envejecer bastante bien durante los próximos años.

No obstante hay una cuestión importante, y es que el desarrollo de videojuegos lleva estancado varios años y no tenemos claro qué grado de evolución alcanzarán los desarrolladores con la llegada de las consolas de nueva generación. Es evidente que éstas seguirán siendo el techo técnico y que continuarán frenando al PC, pero lo que queremos decir es que puede que esas especificaciones que hoy nos parecen tan buenas acaben quedando obsoletas por un “acelerón” a nivel de desarrollo.

Son muchas las posibilidades que podrían entrar en juego en este sentido: animaciones más trabajadas, IA más avanzada, escenarios más abiertos y en general una ruptura con ese estándar que tanto se ha repetido en los juegos de la presente generación desde 2013.

Por otro lado no debemos olvidar que el lanzamiento de Xbox Two se espera para 2020. Esto quiere decir que todavía quedan dos años por delante y que para cuando llegue al mercado ya habrá salido al menos una nueva generación por parte de NVIDIA y de AMD, lo que significa que esa GPU Navi comparable a una Radeon RX Vega 64 ya no será gama alta sino gama media.

Haciendo un balance general creo que sí, que esta consola estará preparada para ofrecer juegos en 4K nativo con una buena fluidez y una calidad gráfica elevada, sobre todo gracias a la optimización por parte de los desarrolladores, pero no será ese “PC Killer” que ya intentan vendernos.

No podemos terminar sin hablar del precio. Xbox One X llegó al mercado con un precio de 500 euros, algo que para muchos analistas fue una locura, pero lo cierto es que en relación precio-prestaciones ha sido más que razonable. En el caso de Xbox Two creo que posicionará en un nivel similar al que os dimos al hablar de PS5, es decir que costará entre 500 y 600 euros.

Editor de la publicación on-line líder en audiencia dentro de la información tecnológica para profesionales. Al día de todas las tecnologías que pueden marcar tendencia en la industria.

Top 5 Cupones

A Fondo

Rendimiento de la RTX 2080 de NVIDIA: un 8% más potente que la GTX 1080 TI

Publicado el

Ya han empezado a aparecer los primeros análisis de rendimiento de la RTX 2080, una tarjeta gráfica de nueva generación que como sabemos posiciona dentro de la gama alta de NVIDIA y queda justo por debajo de la RTX 2080 TI.

El precio de la RTX 2080 en su versión Founders Edition en de 849 euros, una cifra que sube hasta un mínimo de 859 euros en los modelos personalizados más básicos y que puede superar sin problemas los 900 euros en aquellas versiones que cuentan con una mayor calidad de construcción. Esto hace que la versión Founders Edition sea una buena opción sobre todo tras las mejoras que ha introducido NVIDIA tanto a nivel de refrigeración como de diseño.

En artículos anteriores habíamos visto que la RTX 2080 iba a estar solo un poco por encima de la GTX 1080 TI en términos de potencia bruta y hoy podemos confirmarlo con absoluta convicción. Los chicos de TechPowerUP! han publicado varios análisis de rendimiento de la RTX 2080 que reflejan una diferencia de un 8% a favor de ésta.

Las tres gráficas que acompañamos reflejan el rendimiento medio de diferentes tarjetas gráficas. La RTX 2080 representa el punto de partida (100%), y como vemos la GTX 1080 TI obtiene un 92%, lo que nos deja esa mínima diferencia a la que hicimos referencia.

¿Qué supone esto en juegos?

Pues que en general ambas ofrecen la misma experiencia. En algunos juegos la GTX 1080 TI llega incluso a superar a la RTX 2080, pero en la mayoría de los casos la distancia entre una y otra es de unos pocos fotogramas por segundo.

Si hablamos del consumo vemos que tampoco hay diferencias importantes. Ambas tiene registros muy similares, lo que confirma que Turing no marca un avance notable en términos de eficiencia frente a la generación anterior, cosa que sin embargo sí ocurrió con Pascal.

No tenemos datos de rendimiento de la RTX 2080 en trazado de rayos y DLSS, así que no podemos valorar las dos características estrella con las que NVIDIA quiere justificar la llegada de Turing y el alto precio de las RTX 2080. Dichas funciones no se empezarán a implementar en juegos hasta la llegada de Windows 10 October 2018 Update, una actualización que introducirá la versión final de DirectX RayTracing, así que todavía habrá que esperar como mínimo un mes hasta que podamos ver qué puede dar de sí dicha tarjeta gráfica trabajando con ambas tecnologías.

Ahora mismo, y partiendo de lo que hemos visto en esta comparativa de rendimiento de la RTX 2080, podemos sacar en claro que no vale la pena. Una GTX 1080 TI ofrece prácticamente el mismo rendimiento y el mismo consumo, y cuesta 150 euros menos.

¿Y qué hay de la RTX 2080 TI?

También hemos podido ver análisis de rendimiento de la RTX 280 TI y las conclusiones que podemos sacar son muy parecidas. En resoluciones 1080p supera a la GTX 1080 TI en un 19%, cifra que sube a un 25% en resoluciones 1440p y que se eleva hasta un 28% en resoluciones 2160p (4K). Tened en cuenta que hablamos de cifras medias, lo que significa que en algunos casos la diferencia es incluso menor.

NVIDIA dijo que la RTX 2080 TI iba a superar entre un 35% y un 50% el rendimiento bruto de la GTX 1080 TI, una predicción que como vemos no se ha cumplido. A esto debemos añadir el consumo, que como podemos ver es muy superior en la primera.

En resumen, el nuevo tope de gama de NVIDIA rinde de media un 28% más que la GTX 1080 TI en 4K, pero consume 50 vatios más y cuesta 559 euros más (1.259 euros frente a 700 euros). Un resultado nada bueno, tanto que creo que ni siquiera un excelente rendimiento en trazado de rayos podría salvarla.

Turing: la generación a evitar

Tenía malas vibraciones cuando vi la actitud de NVIDIA en el evento de presentación de Turing: todo trazado de rayos y DLSS, nada de cifras concretas de rendimiento en juegos sin aplicar dichas tecnologías y un endurecimiento del NDA que fue ampliamente criticado por muchos medios.

Algunas filtraciones y las promesas del gigante verde abrieron un pequeño rayo de esperanza que hoy se ha esfumado por completo. El rendimiento de la RTX 2080 y de la RTX 2080 TI está por debajo de lo esperado, lo que unido a su alto precio se traduce en un valor muy pobre en términos de rendimiento por cada euro invertido. También empeoran en términos de eficiencia y basan sus mayores avances en una tecnología que todavía ni siquiera está disponible, así que sí, son dos tarjetas gráficas a evitar.

Por su parte las GTX 1080 TI se mantienen como la mejor opción del catálogo de NVIDIA para jugar en altas resoluciones con configuraciones máximas sin renunciar a una buena fluidez, sobre todo ahora que su precio mínimo se ha estabilizado en los 700 euros.

Antes de terminar os dejamos las especificaciones clave de estas tres tarjetas gráficas, ya que puestas en conjunto nos permiten asimilar mejor esta comparativa de rendimiento de la RTX 2080 y RTX 2080 TI.

GeForce RTX 2080 TI

  • GPU TU102 (arquitectura Turing) fabricada en proceso de 12 nm.
  • 4.352 shaders a 1.350 MHz-1.545 MHz, modo normal y turbo.
  • Tecnología NVLINK.
  • 272 unidades de texturizado.
  • 88 unidades de rasterizado.
  • Bus de 352 bits.
  • 11 GB de memoria GDDR6 a 14 GHz efectivos.
  • TDP de 250 vatios.
  • Necesita dos conectores de alimentación de 8 pines.
  • Precio: la Founders Edition cuesta 1.259 euros.

GeForce RTX 2080

  • GPU TU104 (arquitectura Turing) fabricada en proceso de 12 nm.
  • 2.944 shaders a 1.515 MHz-1.710 MHz, modo normal y turbo.
  • 184 unidades de texturizado.
  • 64 unidades de rasterizado.
  • 368 núcleos ténsor.
  • 46 núcleos RT.
  • Bus de 256 bits.
  • 8 GB de memoria GDDR6 a 14 GHz efectivos.
  • TDP de 215 vatios.
  • Necesita un conector de alimentación de 8 pines y otro de 6 pines.
  • Precio: la Founders Edition cuesta 849 euros.

GeForce GTX 1080 Ti

  • GPU GP102 (arquitectura Pascal) en proceso de 16 nm.
  • 3.584 shaders a 1.480 MHz-1.582 MHz, modo normal y turbo.
  • 224 unidades de texturizado.
  • 88 unidades de rasterizado.
  • Bus de 352 bits.
  • 11 GB de memoria GDDR5X a 11 GHz efectivos.
  • TDP de 250 vatios.
  • Necesita un conector de alimentación de 8 pines y otro de 6 pines.
  • Precio: desde 700 euros.

Continuar leyendo

A Fondo

El Día Internacional contra el DRM celebra su duodécimo aniversario

Publicado el
DRM

La Free Software Foundation ha celebrado el duodécimo aniversario de la campaña Defective by Design contra el uso del DRM. Una práctica de la industria controvertida desde hace décadas que limita lo que los consumidores pueden hacer con medios digitales legalmente adquiridos.

Ya sabes de qué va esto. Para una parte de la industria y gestores de propiedad intelectual, el DRM (en español Gestión de derechos digitales) es una práctica esencial para controlar el acceso a sus productos y proteger los derechos de autor bajo el argumento que sin el bloqueo digital se produciría una copia desenfrenada de sus contenidos, lo que reduciría los ingresos y amenazaría los propios modelos comerciales que llevan estos productos al mercado.

Desde el lado del consumidor, este DRM es un gran obstáculo que restringe lo que pueden hacer con un contenido por el que han pagado religiosamente, desde una simple copia de un DVD con fines de copia de seguridad propia. Además, el intento de elusión del DRM está perseguido por la ley y es un delito según las normas de EE.UU o la Unión Europea.

En el caso particular de los juegos, se conoce que muchas implementaciones de estos ‘sistemas de restricciones digitales’ penalizan el rendimiento de los mismos. Se da la paradoja, en ocasiones, que las copias de seguridad que recorren Internet (copias pirata sin DRM) funcionen mejor que las oficiales. El mundo al revés.

Día Internacional contra el DRM

Por estas razones, la organización sin ánimo de lucro dedicada a la promoción del software libre, Free Software Foundation, puso en marcha en 2006 una campaña que intenta llamar la atención de los efectos perniciosos del DRM e invita a sus seguidores a protestar contra estas cerraduras digitales.

“DRM es una epidemia que se extiende a través de la Web, se infiltra en nuestros hogares, aulas, lugares de trabajo y prácticamente en todos los sitios a los que vamos. Herramientas, tecnologías, libros, juegos, películas o música está bloqueada con DRM, ya sea transmitida en streaming o alojada localmente”, señalan desde FSF.

“DRM es un problema importante para la libertad de los usuarios de computadoras, la expresión artística, la libertad de expresión y los medios”, asegura John Sullivan, director ejecutivo de la FSF, en la celebración de esta nueva jornada de concienciación sobre estas tecnologías que se extienden en cualquier tipo de contenido digital y también en gran cantidad de dispositivos de hardware. 

DRM

El DRM es inútil para los piratas

Curiosamente, el contenido con DRM está restringido por defecto, pero por su propia naturaleza solo afecta a las compras legítimas. Aquellos que usan software pirata no se ven afectados ya que los grupos de piratería eliminan el DRM del contenido antes del lanzamiento. El mundo al revés.

Además, su inutilidad ha sido evidente y todos los sistemas empleados han sido superados o eludidos más tarde o más temprano. Sólo se necesita que un solo usuario encuentre una vulnerabilidad en un sistema DRM, quite la protección del contenido y lance la versión sin cifrar para que millones de usuarios utilizando software cliente de fácil acceso como BitTorrent obtengan sus propias copias.

Es más. Hace ya 16 años que cuatro ingenieros de Microsoft presentaron en una conferencia de seguridad en Washington, un informe en el que negaban la utilidad del uso de ‘sistemas de restricciones digitales’ (DRM) para detener la propagación no autorizada de contenido de derechos de autor.

Justo lo que ha sucedido. Los sistemas DRM han ido cayendo. No han servido para detener la piratería y sólo han perjudicado al usuario ‘legal’ que paga por los contenidos y que en numerosas ocasiones ha tenido que acudir a la versión pirateada, que funcionaba mejor que la copia original con DRM.

Otro enfoque contra el DRM

Otros grupos como Electronic Frontier Foundation, la organización sin ánimo de lucro de defensa de derechos en la era digital y también contraria al DRM, ha tomado otro enfoque para combatir estas prácticas de gestión de derechos digitales, pidiendo a la Comisión Federal de Comercio estadounidense (FTC) la creación de unas reglas de etiquetado “justas” para que los minoristas tengan la  obligación de advertir a los consumidores acerca de las restricciones DRM que incluyen en los productos que están comprando.

EFF espera que la liberación de restricciones sea un argumento de valor para muchos usuarios y un elemento limitante para la compra de otros. La verdad es que todavía no se ha conseguido este etiquetado y la EFF ya advirtió que el problema se va a multiplicar con la explosión de productos inteligentes que van a llegar bajo la Internet de las Cosas. La lucha contra el DRM sigue en marcha.

Continuar leyendo

A Fondo

Diez cosas interesantes sobre Ío que quizá no sabías

Publicado el

Júpiter es el planeta más grande del sistema solar y sin duda Ío es una de sus lunas más importantes, aunque también es una de las menos conocidas y es normal, ya que como sabrán algunos de nuestros lectores Europa ha sido el satélite de dicho planeta que ha centrado la mayor atención por parte de medios especializados, y también por parte de los científicos.

Ío es un satélite muy distinto a Europa, tanto que podríamos definir al primero como un mundo compuesto de silicatos y azufre con una importante actividad volcánica, mientras que el segundo es un mundo helado con un enorme océano interior y numerosos géiseres activos.

Esas definiciones son simples, pero nos permiten ilustrar a la perfección las diferencias tan marcadas que existen entre estos dos satélites que comparten planeta. Ambos han sido objeto de diferentes estudios por parte de la comunidad científica, aunque todavía queda mucho camino por recorrer.

Nosotros su momento publicamos este artículo dedicado a Europa, donde encontraréis diez cosas interesantes sobre dicho satélite. Como sabéis nos entusiasma la ciencia y la exploración espacial, así que hoy hemos decidido dedicar un artículo de ese tipo a Ío. Sin más preámbulos empezamos.

1.-Ío es un satélite muy diferente

Es un satélite muy particular. La mayoría de los satélites externos del sistema solar están recubiertos de grandes capas de hielo (su vecino Europa es un claro ejemplo), pero Ío no.

Está compuesto principalmente de silicatos que rodean un núcleo de hierro derretido. Sobre su superficie podemos encontrar azufre, partículas de dióxido de azufre y cenizas rocosas, fruto de la importante actividad volcánica que registra esta luna.

Las partículas de azufre salen despedidas a gran velocidad en forma de plumas volcánicas que llegan hasta los 300 kilómetros de altura, y cuando caen a la superficie se congelan, dando a Ío ese característico color amarillento.

Volcanes en Ío.

2.-Es un mundo volcánico único

Los últimos estudios indican que Ío tiene alrededor de 400 volcanes activos en su superficie, lo que convierte a esta pequeña luna en un auténtico mundo volcánico, ya que es considerado como el más activo de todo el sistema solar.

El volcanismo que se registra este satélite se debe según los expertos al calentamiento de las mareas, considerado como la respuesta de Ío a la disipación de enormes cantidades de energía que provienen de la fricción provocada en el interior del satélite, algo que ocurre por el estiramiento que genera la fuerte atracción gravitatoria de Júpiter y por los efectos gravitacionales menores de los otros satélites que tiene a su alrededor.

Los volcanes de Io están constantemente en erupción, lo que crea auténticas lluvias de plumas de azufre y penachos que se elevan sobre la superficie, así como lagos de lava que cubren vastas áreas del paisaje.

3.-Su atmósfera contiene azufre

Ío tiene una atmósfera muy delgada que está formada principalmente por dióxido de azufre, un gas que como habréis podido imaginar se produce por las emisiones de los más de 400 volcanes que tiene en su superficie. Obvia decir que esto lo convierte en un mundo hostil para la vida.

Los gases de la atmósfera de esta luna escapan al espacio a razón de aproximadamente una tonelada por segundo, lo que significa que sólo se mantiene por la intensa actividad volcánica que se produce en la superficie de Ío.

Una parte de los gases que escapan se ionizan y dan forma a lo que se conoce como el toro de plasma Io, un anillo con partículas cargadas que se produce alrededor del planeta Júpiter.

Disección de Ío, cortesía de Wikipedia.

4.-Registra temperaturas muy bajas

Hemos dicho que Ío tiene una gran actividad volcánica y que cuenta con un núcleo de hierro fundido, pero en su superficie las temperaturas son muy bajas. La media se ha fijado en 163 grados bajo cero.

Esto tiene consecuencias importantes que ya hemos descrito anteriormente, y es que todas las emisiones de sus volcanes acaban congelándose en su superficie y producen efectos verdaderamente únicos. Los dos más significativos son ese color amarillo debido al azufre y también la ausencia de cráteres de impacto visibles.

A efectos comparativos os recordamos que Europa tiene una temperatura media en su superficie de 220 grados bajo cero.

5.-Es un generador eléctrico

La magnetosfera de Júpiter arrastra alrededor de una tonelada de polvo y gas de la superficie de Io cada segundo, lo que genera una interacción entre el material arrastrado y el campo magnético de Júpiter que crea una corriente eléctrica que puede alcanzar los 400.000 voltios y 3 millones de amperios.

El efecto de esta corriente es increíble, ya que infla la magnetosfera de Júpiter hasta superar el doble del tamaño que tendría si no estuviera tan cerca.

Entre los materiales identificados en este proceso se encuentran el azufre ionizado y atómico, oxígeno y cloro, sodio atómico, potasio atómico, dióxido de azufre molecular y azufre, y polvo de cloruro de sodio.

Ío junto a la Luna y la Tierra.

6.-Es la luna más densa del sistema solar

Si hablamos de tamaño Ío no destaca especialmente, ya que en general es solo un poco más grande que nuestra Luna y que Europa, lo que significa que es más pequeña que Ganímedes y que Calisto.

Sin embargo, tiene el honor de ser la luna más densa del sistema solar. Según los últimos datos que manejan los científicos Ío tiene una densidad de 3.5275 g / cm3. Esto se explica por su composición de roca de silicato, que como dijimos envuelve un núcleo fundido de sulfuro de hierro.

Científicos y expertos han confirmado que su densidad es tan alta que resulta comparable a la de los planetas terrestres del sistema solar.

7.-Casi no tiene cráteres de impacto visibles

Es un tema que ya hemos tocado por encima en un punto anterior. A pesar de su naturaleza rocosa en la superficie de Ío apenas se pueden ver pequeños restos de cráteres de impacto, algo muy importante ya que complica la determinación de la edad de esta luna.

Los expertos creen que esa ausencia casi total de cráteres de impacto puede deberse a la actividad volcánica y geológica que continuamente renueva la superficie de la luna, una hipótesis que sin duda duda tiene mucho sentido.

Aunque los expertos no han podido llegar a un consenso sobre la edad de Ío en principio no hay nada que nos lleve a dudar de que su formación debió producirse al mismo tiempo que las otras lunas galileanas

Sin embargo, debido a que Io carece de cráteres, los científicos aún no han llegado a un consenso sobre la edad de la superficie actual de la luna, pero a pesar de esto, no hay razón para creer que Io no se formó al mismo tiempo que los otros cuatro satélites galileanos, algo que ocurrió hace 4.500 millones de años.

Superficie de Ío.

8.-Ío tiene montañas muy elevadas

Es un mundo volcánico, pero la mayoría de las montañas que podemos encontrar en Ío tienen curiosamente un origen no volcánico.

El máximo exponente es Boösaule Montes, la montaña más alta de esta luna (y una de las más altas de todo el sistema solar), que se eleva hasta los 17.000 metros. Es considerada como montaña de origen no volcánico más alta de todo el sistema solar.

En general la altura media de las más de 140 montañas que existen en Ío es de 6.000 metros, y su longitud media es de 157 kilómetros.

9.-La radiación te mataría en un día

Esta luna se encuentra en una nube de plasma de la que ya hemos hablado en el punto tres: el toro de plasma de Ío. Pues bien, Ío rota dentro de la nube de plasma, lo que elimina iones de la luna y genera una radiación enorme.

Para que os hagáis una idea de media la radiación presente en Ío es de unos 3.600 mSv, una cifra que es mil veces mayor a la que haría falta para matar a una persona sin protección.

Esa alta radiación, unida a su actividad volcánica y a la atmósfera rica en azufre, nos permite calificar a Ío de “infierno gélido”,ya que como dijimos su temperatura media es de 163 grados bajo cero.

10.-Tiene un olor terrible

Ya hemos dicho que el azufre tiene una gran presencia en Ío, y esto tiene una consecuencia importante y clara para los expertos: es un satélite apestoso, probablemente el que peor olor tenga de todo el sistema solar.

Según los expertos el olor sería similar al que emiten los huevos podridos. El causante es su delgada atmósfera formada por dióxido de azufre, un gas que se mantiene de forma intensa gracias a la constante renovación que recibe por parte de su elevada actividad volcánica.

Ío es una de las pocas lunas que tiene una atmósfera propia, pero es irrespirable y maloliente.

Continuar leyendo

Lo más leído