Web
Analytics
Conecta con nosotros

A Fondo

Motorola Moto Z3, el primer smartphone 5G

Publicado el
Motorola Moto Z3

Motorola ha anunciado el lanzamiento del “primer smartphone 5G del mercado“. Será una versión del Moto Z3 para la operadora Verizon y obtendrá el soporte para la nueva generación de redes a través de un Moto Mod 5G. Es decir, el terminal no soportará 5G internamente sino que lo hará a través de un accesorio externo.

Motorola sigue reforzando catálogo de smartphones con una nueva versión del gama alta Moto Z3 que conserva el tamaño y diseño de la variante “Play” que ya te presentamos, pero mejorando el hardware interno. Cuenta con un chasis curvado en los laterales, realizado en aluminio y cristal y reforzado con Gorilla Corning Glass.

El panel AMOLED garantiza calidad en una pantalla de grandes dimensiones con biseles recortados y en formato 18:9 siguiendo la tendencia de la industria del móvil, mientras que su potencia viene dada por el motor Snapdragon que emplea. No escapa a la tendencia del doble sensor en la cámara principal y el añadido de funciones de inteligencia artificial como el modo Cinemagraphs y la herramienta Google Lens 2.

Especificaciones Moto Z3 (smartphone 5G con Verizon)

  • Pantalla: AMOLED 6 pulgadas. Formato 18:9.
  • Resolución: FHD+ para 1080 x 2160 píxeles.
  • Chipset: Qualcomm Snapdragon 845
  • CPU: 8 núcleos Kryo 280 hasta 2,6 GHz
  • GPU: Adreno 540
  • RAM: 4 GB
  • Almacenamiento: 64 GB ampliables con microSD
  • Cámaras: Doble sensor de 12 + 12 megapíxeles en la principal y frontal con 8 megapíxeles y lente gran angular
  • Batería: 3.000 mAh
  • Sistema Operativo: Android 8.1
  • Precio y disponibilidad: 480 dólares – Exclusivo Verizon EE.UU el 16 de agosto

smartphone 5G

Moto Mods, el factor diferenciador ahora con 5G

Uno de los puntos fuertes de esta gama de terminales de Motorola es su compatibilidad con los Moto Mods actuales y futuros. Accesorios que permiten conectarse al terminal con la capacidad de personalizarlo, transformarlo o potenciar alguno de sus componentes. Así, a su pin pogo puedes conectar un proyector, una impresora, un altavoz habilitado para Alexa, una cámara de 360 ​​grados, cargador inalámbrico, una cámara con zoom y un montón de fundas, cubiertas traseras, baterías, altavoces, auriculares y otros.

Un elemento diferenciador de este terminal respecto a la competencia que ahora también soportará la nueva generación de redes de banda ancha móvil mediante un Moto Mod 5G. El accesorio utiliza cuatro módulos de ondas milimétricas ubicados en la parte frontal, lateral y posterior para lograr conectividad 5G independientemente de la orientación que tenga el teléfono.  Este Moto Mod tiene su propia batería de 2.000 mAh para no consumir la del propio terminal.

Motorola tiene previsto comercializarlo a comienzos de 2019. Suponemos cuando Verizon haya extendido sus redes para 5G que actualmente tiene a prueba en tres ciudades estadounidenses. Todavía falta tiempo para que veamos smartphones 5G con hardware interno soportado, pero el empleo de este tipo de accesorios puede ser una buena manera de adelantarse. No sabemos el precio del Moto Mod 5G y si se podría acoplar a otros terminales de Motorola compatibles con Mods.

5G, en camino

La nueva generación de redes de comunicaciones de banda ancha móvil sucesora del actual 4G está cada vez más cerca de un lanzamiento comercial y ofrecerá una nueva generación de experiencias en todos los sectores, incluyendo informática clásica, movilidad, conducción autónoma, ciudades inteligentes, la Internet de las Cosas y la era de las máquinas.

La principal mejora de la quinta generación de esta tecnología móvil será un espectacular aumento de rendimiento con velocidades teóricas de transferencia de datos en bajada de 10 Gbps. Una gran mejora frente a los 75 Mbps del actual 4G-LTE y un rendimiento que pulverizaría el de las redes Wi-Fi e incluso superaría a muchas redes cableadas actuales.

5G

También será notable la mejora de la latencia. 5G estará construido para manejar todos los tipos de tráfico con latencia extremadamente baja, ideal para alimentar tecnologías portátiles, coches inteligentes o dispositivos domésticos que llegarán bajo la Internet de las Cosas. Se espera que la latencia de extremo a extremo caiga por debajo de 1 milisegundo permitiendo nuevas tecnologías y aplicaciones que simplemente no son posibles con el 4G actual.

Las redes potentes y ágiles también pueden encaminar el tráfico de red de manera inteligente para dar prioridad a dispositivos críticos para seguridad, como los coches de conducción autónoma y dispositivos médicos vestibles. En zonas geográficas en donde la infraestructura conectada no es tan rápida o fiable como se necesita, la tecnología 5G también ofrece un mundo de posibilidades no disponibles en la actualidad.

Se espera una disponibilidad general comercial del 5G en 2020. La red 5G mundial ofrecerá soporte a un número estimado de 100.000 millones de dispositivos y un volumen de negocio anual de 65.000 millones de dólares la próxima década.

A Fondo

Quadro RTX con GPU Turing: así es lo nuevo de NVIDIA

Publicado

el

NVIDIA ha anunciado las Quadro RTX, una nueva generación de tarjetas gráficas que están basadas en la nueva arquitectura Turing y que representan un avance importante frente a las generaciones anteriores basadas en Pascal y en Volta.

Antes de empezar debemos tener claro que Turing es una evolución de Volta, lo que significa que encontramos elementos que estaban presentes en dicha arquitectura y que se combinan con otros nuevos para potenciar el rendimiento y las posibilidades de esta nueva generación.

En términos de potencia bruta el mayor cambio que hemos podido ver en las Quadro RTX ha sido la introducción de núcleos dedicados al trazado de rayos. Los que nos leéis habitualmente recordaréis que ya os adelantamos en este artículo que esta tecnología iba a centrar todos los esfuerzos de NVIDIA, y que la compañía podría tirar de los núcleos ténsor para mejorar el rendimiento de sus nuevas tarjetas gráficas, algo que al final se ha cumplido pero con matices.

Las Quadro RTX cuentan con un núcleo gráfico que podemos dividir en tres grandes partes:

  • Núcleos CUDA (shaders): es la parte “básica” que ya conocemos y sobre la que recaen trabajos generales de computación y de renderizado , aunque también puede trabajar con otras cargas como la inteligencia artificial y el aprendizaje profundo.
  • Núcleos ténsor: es un bloque especializado y dedicado a trabajar con sistemas de aprendizaje profundo e inteligencia artificial.
  • Núcleos RT: otro bloque especializado y la principal novedad de Turing. Está pensado para acelerar el trabajo con trazado de rayos.

En este caso tenemos por tanto dos especializaciones fundamentales: el subsistema para IA y aprendizaje profundo y el subsistema para trazado de rayos. Ya hemos visto que la especialización puede marcar una gran diferencia y en este caso no estamos ante una excepción. Los núcleos ténsor presentes en la Tesla V100 de NVIDIA alcanzaban picos de 125 TFLOPs y los núcleos RTX para trazado de rayos impulsan el rendimiento para ofrecer una mejora de hasta x25 frente a Pascal.

Quadro RTX: modelos y especifiaciones

De momento han sido confirmadas un total de tres tarjetas gráficas Quadro RTX. Esta línea está pensada para profesionales y por ello cuenta con soporte oficial de controladores específicos para aplicaciones de diseño gráfico, renderizado, creación de contenidos y otras especializadas dentro del sector científico.

Ese soporte marca una diferencia importante frente a las GeForce de consumo general, pero no es la única diferencia. La serie Quadro viene con memoria ECC (corrección de errores), una característica que representa un valor muy importante, sobre todo para aquellos que necesiten trabajar con simulaciones y cargas muy complejas que consumen una gran cantidad de memoria. Un simple error puede dar al traste con una simulación completa de varias horas, problema que sufrían las GTX TITAN V por carecer de ECC como vimos en este artículo, así que su valor está fuera de toda duda.

Pasamos a ver las especificaciones fundamentales de las nuevas Quadro RTX:

  • Quadro RTX 5000: 3.072 núcleos CUDA, 384 núcleos ténsor, 6 GigaRays/s, bus de 384 bits y 16 GB de GDDR6. Costará 2.300 dólares.
  • Quadro RTX 6000: 4.608 núcleos CUDA, 576 núcleos ténsor, 10 GigaRays/s, bus de 384 bits y 24 GB de GDDR6. Costará 6.300 dólares.
  • Quadro RTX 8000: 4.608 núcleos CUDA, 576 núcleos ténsor, 10 GigaRays/s, bus de 384 bits y 48 GB de GDDR6. Costará 10.000 dólares.

Estarán disponibles a finales de este año y serán compatibles con NVIDIA NVLink, que permitirá utilizar dos tarjetas gráficas como si fuera una. Estas son algunas de las claves más importantes que ha confirmado NVIDIA:

  • Nuevos núcleos RT para mejorar el rendimiento con trazado de rayos en tiempo real de objetos y entornos con sombras, reflejos, refracciones e iluminación global físicamente precisos.
  • Turing Tensor Cores para acelerar el entrenamiento y la inferencia de redes neuronales profundas, que son fundamentales para impulsar productos, servicios y renderización mejorada con inteligencia artificial.
  • Nueva arquitectura Turing Streaming Multiprocessor, que cuenta con hasta 4.608 núcleos CUDA, ofrece hasta 16 billones de operaciones de punto flotante en paralelo con 16 billones de operaciones de enteros por segundo para acelerar la compleja simulación de la física del mundo real.
  • Tecnologías de sombreado programables avanzadas para mejorar el rendimiento de efectos visuales complejos y experiencias intensivas en gráficos.
  • Primera implementación de la memoria Samsung GDDR6 de 16 Gb.
  • La tecnología NVIDIA NVLink permite combinar dos GPU con un enlace de alta velocidad para escalar la capacidad de la memoria de hasta 96 GB y aumentar el rendimiento con hasta 100 GB/s de transferencia de datos.
  • Soporte de hardware para USB Type-C y VirtualLink, un nuevo estándar abierto de la industria que se desarrolla para satisfacer las demandas de potencia, pantalla y ancho de banda de los auriculares VR de próxima generación a través de un único conector USB-C .
  • Tecnologías nuevas y mejoradas para mejorar el rendimiento de las aplicaciones de realidad virtual, incluido el sombreado de tasa variable, el renderizado de múltiples vistas y el sonido VRWorks.

¿Y qué hay de las GeForce RTX 2080 y GeForce GTX 2070?

Es una buena pregunta y tenemos buenas noticias. Las Quadro de NVIDIA siempre han mantenido una base común con las GeForce, es decir son prácticamente idénticas en términos de shaders y sus diferencias se reducen a la ausencia de ECC, a la carencia de la optimización a nivel de drivers para aplicaciones profesionales y a una (por lo general) reducción de memoria gráfica.

Por si alguien duda de esto tranquilidad, lo ilustramos con un ejemplo: la Quadro P5000 tiene 2.560 shaders, bus de 256 bits y 16 GB de memoria GDDR5X. Es un calco de la GTX 1080 salvo por todo lo que hemos dicho anteriormente; ECC drivers y memoria gráfica, ya que la GeForce tiene 8 GB de GDDR5X.

Pues bien, esto nos lleva a una conclusión tan simple como interesante y es que la GeForce RTX 2080 podría tener las mismas especificaciones que la Quadro RTX 5000 pero con un pequeño recorte en términos de memoria gráfica, es decir mantendría los 3.072 shaders, el bus de 384 bits y 8 GB de GDDR6.

No podemos descartar que NVIDIA opte por ir más allá y que esa GeForce GTX 2080 acabe siendo un reflejo de la Quadro RTX 6000, lo que nos dejaría 4.608 shaders, bus de 384 bits y 16 GB de GDDR6. Si esto se cumple la Quadro RTX 5000 podría ser un reflejo de la GeForce RTX 2070.

Continuar leyendo

A Fondo

Intel Core 9000, modelos y precios para PCs de sobremesa

Publicado

el

Procesadores Intel

Los Core 9000, novena generación de procesadores de Intel, estarán en el mercado el 1 de octubre según las diapositivas filtradas por wccftech, donde también vemos modelos y precios de la gama de sobremesa.

Core 9000 serán (o deberían ser) los últimos procesadores de Intel antes del paso a los procesos tecnológicos de fabricación de 10 nanómetros. Las principales novedades pasan por la llegada de los modelos con ocho núcleos físicos de procesamiento (la primera vez que Intel los comercializa para el segmento del gran consumo) mayor seguridad contra Meltdown y Spectre, y, según los rumores, soldadura en el difusor térmico integrado abandonando el uso de la pasta térmica.

Una vuelta de tuerca con la misma arquitectura base y proceso de fabricación de 14 nm++ de los actuales Core serie 8000. Se instalarán sobre el socket LGA1151, aunque requerirán un placa base con chipset serie 300 para poder funcionar correctamente. Los principales fabricantes ya han anunciado la actualización de las BIOS / UEFI de sus placas base con chipset Z370 para soportarlos. No serán compatibles con las placas base con chipset serie 200 e inferiores.

Los modelos listados son los que te veníamos comentando, pero con mayores frecuencias de trabajo sobre lo previsto. Estarán encabezados por el Core i9 9900K, el tope de gama con 8 núcleos y 16 hilos con frecuencia de trabajo de 3,6 GHz y máximo de hasta 5 GHz con TurboBoost. 4 núcleos podrían funcionar a 4,8 GHz, mientras que con todos los núcleos activados la frecuencia ascendería a 4,7 GHz.

Tendrá 16 Mbytes totales de memoria caché, un consumo TDP de 95 vatios y un multiplicador desbloqueado como toda la serie “K”. Su precio de 450 dólares correspondería al aumento de número de núcleos. Contenido si tenemos en cuenta lo que cuestan los modelos de alto rendimiento HEDT, pero más caro que ningún procesador para el gran consumo mainstream de Intel.

El resto de modelos no tendría capacidad de HyperThreading y tendrían el mismo número de núcleos que de hilos, 8, 6 o 4 de los más económicos Core i3. De acuerdo con el documento, Intel liberaría primero los SKU de mayor potencia serie K en octubre, seguidos por el resto de la familia de la novena generación en el primer trimestre de Q1 2019 tras anuncio oficial en el CES como suele realizar habitualmente.

Z390, el nuevo chipset para los Core 9000

Los Core 9000 vendrán acompañados de un nuevo chipset Z390. Será la base para la creación de placas base y completará una serie que ofrece los chipsets H310 (gama básica), H370 (un peldaño por encima de la anterior), B360 (con soporte de memorias a mayor velocidad), las soluciones empresariales Q360 y Q370 y el Z370. Todas ellas serán compatibles después de una actualización de la BIOS/UEFI.

Como el resto de chipsets de la serie 300, el Z390 Express se conecta con un socket LGA-1151 a través de un chipset-bus DMI 3.0 y soporta 24 líneas PCI-Express 3.0.

Su configuración de almacenamiento también es similar al Z370, seis puertos SATA de 6 Gbps con soporte AHCI y RAID, y hasta tres conectores M.2 / U.2 de 32 Gbps. Las diferencias comienzan con la conectividad USB integrada. El Z390 Express saca directamente seis puertos USB 3.1 gen 2 de 10 Gbps y diez puertos USB 3.1 gen 1 de 5 Gbps. Si ello no te basta, también soporta catorce puertos 2.0 para un total de 30 puertos USB soportados.

Soportará memorias DDR4-2666 MHz (ampliable mediante overclocking) y la tecnología de memoria Intel Optane. Otra característica mencionada es la tecnología Intel SmartSound, que el documento especifica como un DSP para “descarga de audio / voz”. Sería un procesador digital de señales que reducirá la carga de la CPU al procesar la pila de audio. A nivel físico, el bus de audio sigue siendo el conocido “Azalia”.

Con el Z390 Express, Intel también está actualizando el conjunto de funciones de red de la plataforma. El chipset admite una interfaz MAC de 1 GbE y recomienda a los fabricantes de placas base que incluyan por defecto un módulo Intel AC 9560 con soporte para Wi-Fi 802.11ac y Bluetooth 5. Casi todas las placas contarán con soporte para redes inalámbricas y la mayoría de ellas incluirán tarjetas WLAN recomendadas por Intel.

Mayor seguridad contra Meltdown y Spectre

Además del aumento del número de núcleos en el modelo tope de gama y un posible aumento de frecuencias en los modelos “refrescados”, los nuevos procesadores tendrán modificaciones a nivel de silicio contra las vulnerabilidades Meltdown y Spectre.

El CEO de Intel, Brian Krzanich, prometió una solución permanente a nivel de silicio (hardware) para mitigar estas  vulnerabilidades que tienen en vilo a la industria tecnológica y consumidores desde primeros de año. Una respuesta ante la certeza que estas vulnerabilidades no podrán ser solucionadas al 100% mediante parches de software, ni siquiera actuando en el firmware, en todos todos los procesadores Intel actuales.

Así las cosas, además de emitir parches para los procesadores comercializados durante los cinco últimos años, sexta, séptima y octava generación Core (arquitecturas Skylake, Kaby Lake y Coffee Lake) y los procesadores de cuarta y quinta generación Core, Haswell y Broadwell, Intel prometió el lanzamiento de nuevos chips y ellos serían los Core 9000. Desconocemos si estarían a salvo de ataques contra todas las variantes conocidas y si conllevará una pérdida de rendimiento.

Transición a los 10 nm

Los Core 9000 serían una transición hasta la llegada de los procesadores “Ice Lake”, una familia que estrenarán una característica muy especial, un proceso tecnológico de fabricación de 10 nanómetros que será líder en la industria.

La mejora de los procesos de fabricación ha sido una constante los últimos años en el gigante del chip. Intel estrenó en la  plataforma Broadwell los procesos tecnológicos de fabricación más avanzados del sector de procesadores para PC con los 14 nanómetros, pero desde entonces no ha salido de ahí, si bien ha introducido mejoras en Skylake, Kaby Lake y Coffee Lake.

El próximo salto serán los 10 nm de los Ice Lake. No hay muchos detalles salvo un discreto anuncio previo de Intel, aunque es seguro el aumento de rendimiento a la vez que se reduce el tamaño de los chips. También el precio de producción y su consumo lo que redundará en una gran autonomía en equipos portátiles y convertibles con estos chips que incluirán la CPU, GPU y controladora de memoria en la misma die, aumentando la integración de componentes y partes del chipset.

Continuar leyendo

A Fondo

Cinco grandes misterios sobre Júpiter que quizá no conocías

Publicado

el

Júpiter es uno de los planetas más importantes del sistema solar. Puede que sea un gigante gaseoso y que la vida en él sea imposible, siempre teniendo en cuenta que hablamos de formas de vida basadas en el carbono, pero juega un papel crucial como “policía” del sistema solar, ya que gracias a su enorme atracción gravitatoria actúa como un gigantesco “escudo” contra asteroides y cometas.

Sin Júpiter la Tierra recibiría un bombardeo de asteroides y cometas muy superior al que registra actualmente. No hay consenso, pero los estudios más recientes han indicado que sin el papel de escudo que ejerce dicho planeta el impacto de asteroides sobre la Tierra se multiplicaría por cien. Este simple dato nos permite interiorizar mejor la importancia de ese gigante gaseoso.

Hace un par de años publicamos este artículo que nos permitió descubrir algunas cosas interesantes sobre Júpiter, y hoy hemos vuelto a poner la mirada sobre él para centrarnos en cinco grandes misterios sobre nuestro gigantesco vecino que vale la pena conocer. Esperamos que os guste y como siempre os invitamos a dejar vuestras propias aportaciones en los comentarios.

1-Es un gigante de gas cargado de elementos pesados

Júpiter es enorme, eso lo sabemos, pero también es el más masivo del sistema solar. Si hablamos de números concretos nos encontramos con que es 317 veces más masivo que la Tierra, un número que nos ayuda a entender por qué es considerado casi como un proyecto fallido de estrella.

Existe la creencia de que los planetas del sistema solar se formaron a partir de la misma nube de hidrógeno-helio de la que nació el Sol. Sin embargo la sonda Galileo, que estudió Júpiter en la década de 1990 al 2000, encontró grandes diferencias en la cantidad de elementos pesados que existe en Júpiter y en el Sol.

Esta realidad ha generado muchas dudas que han dado forma a múltiples hipótesis que tratan de explicar esa disparidad de elementos pesados en ambos cuerpos. Una de las que mayor credibilidad tienen sugiere que los elementos pesados ​​de Júpiter provienen de los numerosos cometas, asteroides y otros cuerpos pequeños que ha absorbido y “consumido” durante todos los años que lleva actuando como “escudo” en el sistema solar.

2-Aglutina una enorme cantidad de agua, ¿pero qué cantidad exacta?

Sé lo que estáis pensando, ¿para qué queremos saber cuánta agua tiene un gigante gaseoso? Es una buena pregunta y la respuesta es muy simple, porque nos ayuda a entender cómo se formó el planeta.

Como hemos dicho en el primer punto la presencia de elementos pesados en Júpiter es un síntoma claro de que pudo haber particularidades durante su formación. Parte de esos elementos pudo llegar a través de cometas y asteroides y es muy probable que llevaran también hielo y agua.

Conocer la abundancia de agua que existe en Júpiter nos ayudará a determinar la forma original en la que pudo llegar al planeta y contribuirá a definir las condiciones y procesos que ocurrieron en la nube original de polvo y gas que condujo a la formación del mismo.

3-Júpiter podría tener un núcleo borroso

Júpiter tiene una física muy complicada, tanto que ni siquiera el poder de la imaginación de los científicos es suficiente para completarla. Este planeta está formado en un 90% por hidrógeno, un elemento que está presente en las capas exteriores en forma gaseosa.

Sin embargo en las capas más profundas del planeta el hidrógeno se encuentra a una presión tan alta que sus electrones son expulsados y se crea un fluido que conduce la electricidad tan bien como un metal. Esto crea un enorme campo magnético dentro del planeta que además se ve reforzado por la rápida rotación de Júpiter.

Tenemos una idea bastante aproximada de cómo pueden ser las capas exteriores del planeta, pero nadie está seguro de hasta dónde penetra esa capa de hidrógeno líquido y se desconoce si el núcleo tiene elementos pesados en su interior.

Con todo las últimas teorías han apuntado a la posibilidad de que exista un núcleo borroso en Júpiter, una idea que en resumen se apoya sobre el método de la inestabilidad de disco para la creación de planetas y sugiere que Júpiter tiene un núcleo no definido con dos grandes capas: una “disuelta” y otra sólida con elementos muy pesados.

4-Sus cinturones y la Gran Mancha Roja tienen una profundidad enorme

Las imágenes que todos conocemos de Júpiter nos muestran un compendio de rayas gruesas y tormentas arremolinadas con diferentes tonalidades. Esas imágenes representan únicamente las zonas superiores y externas de las nubes que cubren el planeta, lo que significa que era imposible determinar su profundidad real.

Descubrir la profundidad que tienen esos cinturones y la Gran Mancha Roja podía ayudarnos a comprender mejor algunas cuestiones relacionadas con el clima y con las tormentas que azotan a Júpiter, una tarea que la sonda Juno está desarrollando desde que llegó a las inmediaciones de Júpiter.

Todavía no tenemos toda la información que necesitamos para resolver este misterio, pero los datos que ha ido recopilando Juno durante los últimos años nos han permitido arrojar un poco de luz sobre este tema y empezar a resolver el misterio. Así, sabemos que la profundidad de la Gran Mancha Roja es entre 50 y 100 veces mayor que la de los océanos de la Tierra, y que sus cinturones pueden llegar a los 3.000 kilómetros de profundidad.

5-Franjas de colores formadas por nubes de amoníaco

Júpiter es un espectáculo de colores, ¿pero cómo consigue este gigante mostrar esos cinturones tormentosos y esas manchas tan coloridas? Como sabemos este planeta no tiene una superficie sólida, es un gigante de gas con vientos huracanados.

Pues bien, en sus diferentes capas gaseosas se produce lo que se conoce como corrientes de chorro que transportan grandes nubes de amoníaco en la atmósfera exterior de Júpiter, formando esas franjas y manchas tan características de tonos rojos, anaranjados, blancos, marrones y amarillos.

Esas corrientes de chorro circulan de oeste a este e interactúan con el campo magnético de Júpiter. También son muy diferentes a las que encontramos en la Tierra. En nuestro planeta son onduladas e irregulares, mientras que en Júpiter son rectas. Según los expertos esto se debe a que en Júpiter no hay continentes ni montañas debajo de la atmósfera que obstruyan el camino de las corrientes en chorro, lo que hace que sean más simples que las de nuestro planeta.

Enlaces de interés: Cinco grandes misterios sobre Marte que igual no conocías.

Continuar leyendo

Lo más leído