Web Analytics
Conecta con nosotros

A Fondo

Cinco tarjetas gráficas 3D que cambiaron el mundo del gaming en PC

Publicado el

El sector de las tarjetas gráficas 3D ha vivido una importante evolución durante las últimas décadas. En sus inicios eran casi una rareza que no terminada de despegar, sobre todo por cuestiones de precio y de falta de optimización, pero la llegada de 3DFX cambió por completo la situación y sentó las bases del mercado actual.

Nuestros lectores más veteranos recordarán a la perfección aquella etapa temprana de las aceleradoras 3D y el valor que aportó 3DFX en términos de soporte, de compatibilidad, de rendimiento y también de precio.

En los años posteriores el mercado se fue agitando y la guerra que vivió el sector de las tarjetas gráficas 3D se acabó concentrando en tres gigantes: NVIDIA, ATI y 3DFX. Firmas como 3Dlabs, Matrox y S3 brillaron en momentos puntuales gracias a productos muy concretos, pero no pudieron aguantar el tirón y la mayor parte de la “tarta” quedó a repartir entre los los tres primeros.

La historia de las tarjetas gráficas 3D es muy rica, tanto que podríamos escribir sin problemas un libro de cientos de páginas tocando especificaciones técnicas, APIs, avances clave y asociarlos a juegos determinados, y siempre nos acabaríamos dejando algo en el tintero. Sin embargo los avances más importantes se pueden concentrar en generaciones y modelos concretos, así que hemos decidido hacer un artículo especial dedicado a cinco tarjetas gráficas 3D que representaron un avance tan grande que cambiaron el mundo del gaming en PC.

Limitarnos a cinco modelos implica que tendremos que afinar mucho la puntería y que habrá tarjetas gráficas importantes que quedarán fuera, pero nos permitirá dar forma a un artículo más ameno y fácil de leer.

Sin más preámbulos empezamos. Esperamos que os guste, y como siempre os invitamos a dejar cualquier duda en los comentarios.

1-Voodoo de 3DFX

Marcó un verdadero punto de inflexión en el mercado de las aceleradoras 3D y sentó las bases de la industria actual. Fue la primera tarjeta 3D de consumo general a precio razonable que realmente estaba preparada para trabajar de forma óptima cargas de trabajo intensas y de procesar efectos avanzados.

Su debut se produjo en 1996, funcionaba sobre el bus PCI y contaba con las siguientes especificaciones:

  • DAC (conversor digital-analógico).
  • Procesador de búfer de cuadros.
  • Unidad de mapadoo de texturas.
  • 4 MB de DRAM EDO.
  • Dos procesadores gráficos a 50 MHz.
  • Requería tarjeta 2D independiente para funcionar.

En sus inicios los competidores más importantes de la Voodoo fueron las soluciones gráficas de firmas como PowerVR, Matrox y Rendition. Sus competidores tenían la ventaja de ofrecer productos que podían trabajar en 2D y en 3D, pero sus capacidades de aceleración 3D estaban muy por debajo de las que ofrecía la solución de 3DFX.

¿Qué aportó al mundo del gaming?

  • Demostró el valor de tener una API dedicada y perfectamente optimizada: Glide.
  • Podía mover juegos en 640 x 480 con aceleración 3D de forma fluida.
  • Soportaba funciones avanzadas que estaban fuera del alcance de otras tarjetas gráficas de la época, como las transparencias.
  • Desplazó al procesador como pieza fundamental para mover juegos 3D.
  • Era capaz de “revivir” equipos de gama baja. Un Pentium a 120 MHz con una Voodoo estaba a años luz de un Pentium a 200 MHz con una S3 Virge.

2-GeForce 256

NVIDIA consideró a esta tarjeta gráfica como la primera en contar con una verdadera GPU (unidad central de procesamiento gráfico). Hay mucha polémica en torno a esta cuestión, pero lo cierto es que la GeForce 256 fue una aceleradora 3D verdaderamente revolucionaria que no sólo marcó un antes y un después a nivel técnico y de rendimiento, sino que además puso el primer clavo en el ataúd de 3DFX.

Esta tarjeta gráfica llegó al mercado en 1999, funcionaba sobre el bus AGP y contaba con la siguiente configuración:

  • 4 pixel pipelines.
  • 4 unidades de texturizado.
  • 4 unidades de rasterizado.
  • GPU a 120 MHz.
  • Bus de memoria de 128 bits.
  • 32 MB-64 MB de memoria DDR-SDR, según versión, a 150 MHz-166 MHz, respectivamente.

En términos de rendimiento no tenía rival, y además fue la primera tarjeta gráfica 3D de consumo general que podía aprovechar por hardware Transform and Lighting (T&L), integrada en DirectX 7 de Microsoft.

¿Qué aportó al mundo del gaming?

  • Fue la tarjeta gráfica 3D de consumo general con una GPU.
  • Contaba con motores de transformación, iluminación, configuración y recorte de triángulos y de procesamiento.
  • Superó la barrera de los 10 millones de polígonos por segundo.
  • Contribuyó a estandarizar Transform and Lighting (T&L).
  • Sentó las bases del futuro estándar de sombreado de píxeles que llegaría con DirectX 8.

3-Radeon X1950XTX

Ha sido una de las tarjetas gráficas 3D de gama alta más potentes de todas las que lanzó la extinta ATI, compañía que como sabemos fue comprada en 2006 por AMD, el mismo año en el que debutó dicha tarjeta. Hoy se encuentra totalmente integrada en la división Radeon Technology Group.

La Radeon X1950XTX fue una auténtica demostración de fuerza por parte de ATI. La compañía había tenido problemas para seguir el ritmo de NVIDIA, y con esta tarjeta gráfica demostró que podía superarla sin ningún tipo de problema, incluso en juegos como Quake 4, que estaban basados en el motor gráfico de DOOM 3 y que eran por tanto “feudo” favorable a los de verde. Estas son sus especificaciones clave:

  • 48 unidades de sombreado de píxeles.
  • 16 unidades de texturizado.
  • 16 unidades de rasterizado.
  • 8 unidades de sombreado de vertex.
  • Bus de 256 bits.
  • GPU a 650 MHz.
  • 512 MB de memoria GDDR4 a 2 GHz.

Sin duda la tarjeta gráfica más potente de su generación y la cima de todos los modelos basados en DirectX 9.0c. Insuperable en términos de potencia bruta, aunque con un precio muy elevado.

¿Qué aportó al mundo del gaming?

  • Fue la tarjeta gráfica más potente de la historia compatible con DirectX 9.0c.
  • Podía mover juegos exigentes con fluidez en resoluciones muy altas para la época.
  • Permitía activar HDR y suavizado de bordes de forma simultánea.
  • Fue la primera en utilizar memoria GDDR4.
  • Sirvió de base para desarrollar la GPU de Xbox 360.
  • Rompió de verdad la supremacía de NVIDIA.

4-GeForce 8800 GTX

Con esta tarjeta gráfica 3D se dio el salto a la arquitectura de shaders unificados. En ella las unidades de sombreado de píxels y de vertex se unen, un cambio muy importante que permitió una enorme mejora en términos de rendimiento. Su lanzamiento se produjo a finales de 2006.

Para que os hagáis una idea del salto que marcó la GeForce 8800 GTX basta con decir que era capaz de superar el rendimiento de una GeForce 7950 GX2. Dicha tarjeta gráfica contaba con dos GPUs G71 utilizadas en las GeForce 7900 GTX. Haciendo una comparativa actual sería como si la GeForce RTX 2080 TI de NVIDIA fuese capaz de rendir más que dos GTX 1080 TI. Impresionante, ¿verdad? Pues sus especificaciones no se quedaban atrás:

  • 128 shaders.
  • 32unidades de texturizado.
  • 24 unidades de rasterizado.
  • Bus de 384 bits.
  • GPU a 576 MHz, “hot shaders a 1.350 MHz”.
  • 768 MB de memoria GDDR3 a 1,8 GHz.

No sólo marcó un enorme salto en términos de rendimiento, sino que además definió el camino que ha seguido la industria durante los últimos doce años.

¿Qué aportó al mundo del gaming?

  • Ha representado el mayor salto de rendimiento frente a la generación anterior.
  • Introdujo la arquitectura de shaders unificados que todavía hoy utilizamos.
  • Fue la primera compatible con DirectX 10.
  • Marcaba una distancia enorme frente a PS3 y Xbox 360.
  • Podía mover Crysis de forma más que aceptable.
  • Todavía hoy puede mover juegos que no estén limitados a DirectX 11.

5.-Radeon HD 7970

No fue la tarjeta gráfica más eficiente ni tampoco la más potente de su generación en un principio, pero su importancia está fuera de toda duda. La arquitectura utilizada en esta tarjeta gráfica ha dado vida a la GPU de PS4 y Xbox One, y sentó las bases de la arquitectura que se utilizaría posteriormente en PS4 Pro y Xbox One X.

Con la Radeon HD 7970 en AMD llevaron a cabo una apuesta totalmente distinta a la que hizo NVIDIA con Kepler y su serie GTX 600: integraron funciones avanzadas como shaders asíncronos por hardware, lo que le permitía ofrecer un mayor rendimiento en APIs de bajo nivel (Vulkan, por ejemplo).

Este enfoque era un claro reflejo del valor de la optimización sobre la simple potencia bruta, y el tiempo ha dado la razón a AMD. Las Radeon HD serie 7000 han envejecido mejor que sus rivales directos basados en Kepler y su rendimiento en DirectX 12 y Vulkan es superior. Estas fueron las especificaciones de la Radeon HD 7970:

  • 2.048 shaders.
  • 128 unidades de texturizado.
  • 32 unidades de rasterizado.
  • GPU a 925 MHz.
  • Bus de 384 bits.
  • 3 GB de GDDR5 a 5,5 GHz.

Esta tarjeta gráfica 3D todavía es capaz de ofrecer un buen rendimiento en juegos actuales con resoluciones 1080p y calidades medias o altas, según las exigencias de cada juego.

¿Qué aportó al mundo del gaming?

  • Demostró el valor de la optimización sobre la potencia bruta.
  • Introdujo el soporte de shaders asíncronos a nivel de hardware.
  • Su arquitectura fue la base de las GPUs de PS4 y Xbox One.
  • Ha sido una de las tarjetas gráficas más longevas de la historia.

Editor de la publicación on-line líder en audiencia dentro de la información tecnológica para profesionales. Al día de todas las tecnologías que pueden marcar tendencia en la industria.

Top 5 Cupones

A Fondo

Rendimiento de la RTX 2080 de NVIDIA: un 8% más potente que la GTX 1080 TI

Publicado el

Ya han empezado a aparecer los primeros análisis de rendimiento de la RTX 2080, una tarjeta gráfica de nueva generación que como sabemos posiciona dentro de la gama alta de NVIDIA y queda justo por debajo de la RTX 2080 TI.

El precio de la RTX 2080 en su versión Founders Edition en de 849 euros, una cifra que sube hasta un mínimo de 859 euros en los modelos personalizados más básicos y que puede superar sin problemas los 900 euros en aquellas versiones que cuentan con una mayor calidad de construcción. Esto hace que la versión Founders Edition sea una buena opción sobre todo tras las mejoras que ha introducido NVIDIA tanto a nivel de refrigeración como de diseño.

En artículos anteriores habíamos visto que la RTX 2080 iba a estar solo un poco por encima de la GTX 1080 TI en términos de potencia bruta y hoy podemos confirmarlo con absoluta convicción. Los chicos de TechPowerUP! han publicado varios análisis de rendimiento de la RTX 2080 que reflejan una diferencia de un 8% a favor de ésta.

Las tres gráficas que acompañamos reflejan el rendimiento medio de diferentes tarjetas gráficas. La RTX 2080 representa el punto de partida (100%), y como vemos la GTX 1080 TI obtiene un 92%, lo que nos deja esa mínima diferencia a la que hicimos referencia.

¿Qué supone esto en juegos?

Pues que en general ambas ofrecen la misma experiencia. En algunos juegos la GTX 1080 TI llega incluso a superar a la RTX 2080, pero en la mayoría de los casos la distancia entre una y otra es de unos pocos fotogramas por segundo.

Si hablamos del consumo vemos que tampoco hay diferencias importantes. Ambas tiene registros muy similares, lo que confirma que Turing no marca un avance notable en términos de eficiencia frente a la generación anterior, cosa que sin embargo sí ocurrió con Pascal.

No tenemos datos de rendimiento de la RTX 2080 en trazado de rayos y DLSS, así que no podemos valorar las dos características estrella con las que NVIDIA quiere justificar la llegada de Turing y el alto precio de las RTX 2080. Dichas funciones no se empezarán a implementar en juegos hasta la llegada de Windows 10 October 2018 Update, una actualización que introducirá la versión final de DirectX RayTracing, así que todavía habrá que esperar como mínimo un mes hasta que podamos ver qué puede dar de sí dicha tarjeta gráfica trabajando con ambas tecnologías.

Ahora mismo, y partiendo de lo que hemos visto en esta comparativa de rendimiento de la RTX 2080, podemos sacar en claro que no vale la pena. Una GTX 1080 TI ofrece prácticamente el mismo rendimiento y el mismo consumo, y cuesta 150 euros menos.

¿Y qué hay de la RTX 2080 TI?

También hemos podido ver análisis de rendimiento de la RTX 280 TI y las conclusiones que podemos sacar son muy parecidas. En resoluciones 1080p supera a la GTX 1080 TI en un 19%, cifra que sube a un 25% en resoluciones 1440p y que se eleva hasta un 28% en resoluciones 2160p (4K). Tened en cuenta que hablamos de cifras medias, lo que significa que en algunos casos la diferencia es incluso menor.

NVIDIA dijo que la RTX 2080 TI iba a superar entre un 35% y un 50% el rendimiento bruto de la GTX 1080 TI, una predicción que como vemos no se ha cumplido. A esto debemos añadir el consumo, que como podemos ver es muy superior en la primera.

En resumen, el nuevo tope de gama de NVIDIA rinde de media un 28% más que la GTX 1080 TI en 4K, pero consume 50 vatios más y cuesta 559 euros más (1.259 euros frente a 700 euros). Un resultado nada bueno, tanto que creo que ni siquiera un excelente rendimiento en trazado de rayos podría salvarla.

Turing: la generación a evitar

Tenía malas vibraciones cuando vi la actitud de NVIDIA en el evento de presentación de Turing: todo trazado de rayos y DLSS, nada de cifras concretas de rendimiento en juegos sin aplicar dichas tecnologías y un endurecimiento del NDA que fue ampliamente criticado por muchos medios.

Algunas filtraciones y las promesas del gigante verde abrieron un pequeño rayo de esperanza que hoy se ha esfumado por completo. El rendimiento de la RTX 2080 y de la RTX 2080 TI está por debajo de lo esperado, lo que unido a su alto precio se traduce en un valor muy pobre en términos de rendimiento por cada euro invertido. También empeoran en términos de eficiencia y basan sus mayores avances en una tecnología que todavía ni siquiera está disponible, así que sí, son dos tarjetas gráficas a evitar.

Por su parte las GTX 1080 TI se mantienen como la mejor opción del catálogo de NVIDIA para jugar en altas resoluciones con configuraciones máximas sin renunciar a una buena fluidez, sobre todo ahora que su precio mínimo se ha estabilizado en los 700 euros.

Antes de terminar os dejamos las especificaciones clave de estas tres tarjetas gráficas, ya que puestas en conjunto nos permiten asimilar mejor esta comparativa de rendimiento de la RTX 2080 y RTX 2080 TI.

GeForce RTX 2080 TI

  • GPU TU102 (arquitectura Turing) fabricada en proceso de 12 nm.
  • 4.352 shaders a 1.350 MHz-1.545 MHz, modo normal y turbo.
  • Tecnología NVLINK.
  • 272 unidades de texturizado.
  • 88 unidades de rasterizado.
  • Bus de 352 bits.
  • 11 GB de memoria GDDR6 a 14 GHz efectivos.
  • TDP de 250 vatios.
  • Necesita dos conectores de alimentación de 8 pines.
  • Precio: la Founders Edition cuesta 1.259 euros.

GeForce RTX 2080

  • GPU TU104 (arquitectura Turing) fabricada en proceso de 12 nm.
  • 2.944 shaders a 1.515 MHz-1.710 MHz, modo normal y turbo.
  • 184 unidades de texturizado.
  • 64 unidades de rasterizado.
  • 368 núcleos ténsor.
  • 46 núcleos RT.
  • Bus de 256 bits.
  • 8 GB de memoria GDDR6 a 14 GHz efectivos.
  • TDP de 215 vatios.
  • Necesita un conector de alimentación de 8 pines y otro de 6 pines.
  • Precio: la Founders Edition cuesta 849 euros.

GeForce GTX 1080 Ti

  • GPU GP102 (arquitectura Pascal) en proceso de 16 nm.
  • 3.584 shaders a 1.480 MHz-1.582 MHz, modo normal y turbo.
  • 224 unidades de texturizado.
  • 88 unidades de rasterizado.
  • Bus de 352 bits.
  • 11 GB de memoria GDDR5X a 11 GHz efectivos.
  • TDP de 250 vatios.
  • Necesita un conector de alimentación de 8 pines y otro de 6 pines.
  • Precio: desde 700 euros.

Continuar leyendo

A Fondo

El Día Internacional contra el DRM celebra su duodécimo aniversario

Publicado el
DRM

La Free Software Foundation ha celebrado el duodécimo aniversario de la campaña Defective by Design contra el uso del DRM. Una práctica de la industria controvertida desde hace décadas que limita lo que los consumidores pueden hacer con medios digitales legalmente adquiridos.

Ya sabes de qué va esto. Para una parte de la industria y gestores de propiedad intelectual, el DRM (en español Gestión de derechos digitales) es una práctica esencial para controlar el acceso a sus productos y proteger los derechos de autor bajo el argumento que sin el bloqueo digital se produciría una copia desenfrenada de sus contenidos, lo que reduciría los ingresos y amenazaría los propios modelos comerciales que llevan estos productos al mercado.

Desde el lado del consumidor, este DRM es un gran obstáculo que restringe lo que pueden hacer con un contenido por el que han pagado religiosamente, desde una simple copia de un DVD con fines de copia de seguridad propia. Además, el intento de elusión del DRM está perseguido por la ley y es un delito según las normas de EE.UU o la Unión Europea.

En el caso particular de los juegos, se conoce que muchas implementaciones de estos ‘sistemas de restricciones digitales’ penalizan el rendimiento de los mismos. Se da la paradoja, en ocasiones, que las copias de seguridad que recorren Internet (copias pirata sin DRM) funcionen mejor que las oficiales. El mundo al revés.

Día Internacional contra el DRM

Por estas razones, la organización sin ánimo de lucro dedicada a la promoción del software libre, Free Software Foundation, puso en marcha en 2006 una campaña que intenta llamar la atención de los efectos perniciosos del DRM e invita a sus seguidores a protestar contra estas cerraduras digitales.

“DRM es una epidemia que se extiende a través de la Web, se infiltra en nuestros hogares, aulas, lugares de trabajo y prácticamente en todos los sitios a los que vamos. Herramientas, tecnologías, libros, juegos, películas o música está bloqueada con DRM, ya sea transmitida en streaming o alojada localmente”, señalan desde FSF.

“DRM es un problema importante para la libertad de los usuarios de computadoras, la expresión artística, la libertad de expresión y los medios”, asegura John Sullivan, director ejecutivo de la FSF, en la celebración de esta nueva jornada de concienciación sobre estas tecnologías que se extienden en cualquier tipo de contenido digital y también en gran cantidad de dispositivos de hardware. 

DRM

El DRM es inútil para los piratas

Curiosamente, el contenido con DRM está restringido por defecto, pero por su propia naturaleza solo afecta a las compras legítimas. Aquellos que usan software pirata no se ven afectados ya que los grupos de piratería eliminan el DRM del contenido antes del lanzamiento. El mundo al revés.

Además, su inutilidad ha sido evidente y todos los sistemas empleados han sido superados o eludidos más tarde o más temprano. Sólo se necesita que un solo usuario encuentre una vulnerabilidad en un sistema DRM, quite la protección del contenido y lance la versión sin cifrar para que millones de usuarios utilizando software cliente de fácil acceso como BitTorrent obtengan sus propias copias.

Es más. Hace ya 16 años que cuatro ingenieros de Microsoft presentaron en una conferencia de seguridad en Washington, un informe en el que negaban la utilidad del uso de ‘sistemas de restricciones digitales’ (DRM) para detener la propagación no autorizada de contenido de derechos de autor.

Justo lo que ha sucedido. Los sistemas DRM han ido cayendo. No han servido para detener la piratería y sólo han perjudicado al usuario ‘legal’ que paga por los contenidos y que en numerosas ocasiones ha tenido que acudir a la versión pirateada, que funcionaba mejor que la copia original con DRM.

Otro enfoque contra el DRM

Otros grupos como Electronic Frontier Foundation, la organización sin ánimo de lucro de defensa de derechos en la era digital y también contraria al DRM, ha tomado otro enfoque para combatir estas prácticas de gestión de derechos digitales, pidiendo a la Comisión Federal de Comercio estadounidense (FTC) la creación de unas reglas de etiquetado “justas” para que los minoristas tengan la  obligación de advertir a los consumidores acerca de las restricciones DRM que incluyen en los productos que están comprando.

EFF espera que la liberación de restricciones sea un argumento de valor para muchos usuarios y un elemento limitante para la compra de otros. La verdad es que todavía no se ha conseguido este etiquetado y la EFF ya advirtió que el problema se va a multiplicar con la explosión de productos inteligentes que van a llegar bajo la Internet de las Cosas. La lucha contra el DRM sigue en marcha.

Continuar leyendo

A Fondo

Diez cosas interesantes sobre Ío que quizá no sabías

Publicado el

Júpiter es el planeta más grande del sistema solar y sin duda Ío es una de sus lunas más importantes, aunque también es una de las menos conocidas y es normal, ya que como sabrán algunos de nuestros lectores Europa ha sido el satélite de dicho planeta que ha centrado la mayor atención por parte de medios especializados, y también por parte de los científicos.

Ío es un satélite muy distinto a Europa, tanto que podríamos definir al primero como un mundo compuesto de silicatos y azufre con una importante actividad volcánica, mientras que el segundo es un mundo helado con un enorme océano interior y numerosos géiseres activos.

Esas definiciones son simples, pero nos permiten ilustrar a la perfección las diferencias tan marcadas que existen entre estos dos satélites que comparten planeta. Ambos han sido objeto de diferentes estudios por parte de la comunidad científica, aunque todavía queda mucho camino por recorrer.

Nosotros su momento publicamos este artículo dedicado a Europa, donde encontraréis diez cosas interesantes sobre dicho satélite. Como sabéis nos entusiasma la ciencia y la exploración espacial, así que hoy hemos decidido dedicar un artículo de ese tipo a Ío. Sin más preámbulos empezamos.

1.-Ío es un satélite muy diferente

Es un satélite muy particular. La mayoría de los satélites externos del sistema solar están recubiertos de grandes capas de hielo (su vecino Europa es un claro ejemplo), pero Ío no.

Está compuesto principalmente de silicatos que rodean un núcleo de hierro derretido. Sobre su superficie podemos encontrar azufre, partículas de dióxido de azufre y cenizas rocosas, fruto de la importante actividad volcánica que registra esta luna.

Las partículas de azufre salen despedidas a gran velocidad en forma de plumas volcánicas que llegan hasta los 300 kilómetros de altura, y cuando caen a la superficie se congelan, dando a Ío ese característico color amarillento.

Volcanes en Ío.

2.-Es un mundo volcánico único

Los últimos estudios indican que Ío tiene alrededor de 400 volcanes activos en su superficie, lo que convierte a esta pequeña luna en un auténtico mundo volcánico, ya que es considerado como el más activo de todo el sistema solar.

El volcanismo que se registra este satélite se debe según los expertos al calentamiento de las mareas, considerado como la respuesta de Ío a la disipación de enormes cantidades de energía que provienen de la fricción provocada en el interior del satélite, algo que ocurre por el estiramiento que genera la fuerte atracción gravitatoria de Júpiter y por los efectos gravitacionales menores de los otros satélites que tiene a su alrededor.

Los volcanes de Io están constantemente en erupción, lo que crea auténticas lluvias de plumas de azufre y penachos que se elevan sobre la superficie, así como lagos de lava que cubren vastas áreas del paisaje.

3.-Su atmósfera contiene azufre

Ío tiene una atmósfera muy delgada que está formada principalmente por dióxido de azufre, un gas que como habréis podido imaginar se produce por las emisiones de los más de 400 volcanes que tiene en su superficie. Obvia decir que esto lo convierte en un mundo hostil para la vida.

Los gases de la atmósfera de esta luna escapan al espacio a razón de aproximadamente una tonelada por segundo, lo que significa que sólo se mantiene por la intensa actividad volcánica que se produce en la superficie de Ío.

Una parte de los gases que escapan se ionizan y dan forma a lo que se conoce como el toro de plasma Io, un anillo con partículas cargadas que se produce alrededor del planeta Júpiter.

Disección de Ío, cortesía de Wikipedia.

4.-Registra temperaturas muy bajas

Hemos dicho que Ío tiene una gran actividad volcánica y que cuenta con un núcleo de hierro fundido, pero en su superficie las temperaturas son muy bajas. La media se ha fijado en 163 grados bajo cero.

Esto tiene consecuencias importantes que ya hemos descrito anteriormente, y es que todas las emisiones de sus volcanes acaban congelándose en su superficie y producen efectos verdaderamente únicos. Los dos más significativos son ese color amarillo debido al azufre y también la ausencia de cráteres de impacto visibles.

A efectos comparativos os recordamos que Europa tiene una temperatura media en su superficie de 220 grados bajo cero.

5.-Es un generador eléctrico

La magnetosfera de Júpiter arrastra alrededor de una tonelada de polvo y gas de la superficie de Io cada segundo, lo que genera una interacción entre el material arrastrado y el campo magnético de Júpiter que crea una corriente eléctrica que puede alcanzar los 400.000 voltios y 3 millones de amperios.

El efecto de esta corriente es increíble, ya que infla la magnetosfera de Júpiter hasta superar el doble del tamaño que tendría si no estuviera tan cerca.

Entre los materiales identificados en este proceso se encuentran el azufre ionizado y atómico, oxígeno y cloro, sodio atómico, potasio atómico, dióxido de azufre molecular y azufre, y polvo de cloruro de sodio.

Ío junto a la Luna y la Tierra.

6.-Es la luna más densa del sistema solar

Si hablamos de tamaño Ío no destaca especialmente, ya que en general es solo un poco más grande que nuestra Luna y que Europa, lo que significa que es más pequeña que Ganímedes y que Calisto.

Sin embargo, tiene el honor de ser la luna más densa del sistema solar. Según los últimos datos que manejan los científicos Ío tiene una densidad de 3.5275 g / cm3. Esto se explica por su composición de roca de silicato, que como dijimos envuelve un núcleo fundido de sulfuro de hierro.

Científicos y expertos han confirmado que su densidad es tan alta que resulta comparable a la de los planetas terrestres del sistema solar.

7.-Casi no tiene cráteres de impacto visibles

Es un tema que ya hemos tocado por encima en un punto anterior. A pesar de su naturaleza rocosa en la superficie de Ío apenas se pueden ver pequeños restos de cráteres de impacto, algo muy importante ya que complica la determinación de la edad de esta luna.

Los expertos creen que esa ausencia casi total de cráteres de impacto puede deberse a la actividad volcánica y geológica que continuamente renueva la superficie de la luna, una hipótesis que sin duda duda tiene mucho sentido.

Aunque los expertos no han podido llegar a un consenso sobre la edad de Ío en principio no hay nada que nos lleve a dudar de que su formación debió producirse al mismo tiempo que las otras lunas galileanas

Sin embargo, debido a que Io carece de cráteres, los científicos aún no han llegado a un consenso sobre la edad de la superficie actual de la luna, pero a pesar de esto, no hay razón para creer que Io no se formó al mismo tiempo que los otros cuatro satélites galileanos, algo que ocurrió hace 4.500 millones de años.

Superficie de Ío.

8.-Ío tiene montañas muy elevadas

Es un mundo volcánico, pero la mayoría de las montañas que podemos encontrar en Ío tienen curiosamente un origen no volcánico.

El máximo exponente es Boösaule Montes, la montaña más alta de esta luna (y una de las más altas de todo el sistema solar), que se eleva hasta los 17.000 metros. Es considerada como montaña de origen no volcánico más alta de todo el sistema solar.

En general la altura media de las más de 140 montañas que existen en Ío es de 6.000 metros, y su longitud media es de 157 kilómetros.

9.-La radiación te mataría en un día

Esta luna se encuentra en una nube de plasma de la que ya hemos hablado en el punto tres: el toro de plasma de Ío. Pues bien, Ío rota dentro de la nube de plasma, lo que elimina iones de la luna y genera una radiación enorme.

Para que os hagáis una idea de media la radiación presente en Ío es de unos 3.600 mSv, una cifra que es mil veces mayor a la que haría falta para matar a una persona sin protección.

Esa alta radiación, unida a su actividad volcánica y a la atmósfera rica en azufre, nos permite calificar a Ío de “infierno gélido”,ya que como dijimos su temperatura media es de 163 grados bajo cero.

10.-Tiene un olor terrible

Ya hemos dicho que el azufre tiene una gran presencia en Ío, y esto tiene una consecuencia importante y clara para los expertos: es un satélite apestoso, probablemente el que peor olor tenga de todo el sistema solar.

Según los expertos el olor sería similar al que emiten los huevos podridos. El causante es su delgada atmósfera formada por dióxido de azufre, un gas que se mantiene de forma intensa gracias a la constante renovación que recibe por parte de su elevada actividad volcánica.

Ío es una de las pocas lunas que tiene una atmósfera propia, pero es irrespirable y maloliente.

Continuar leyendo

Lo más leído