Guías, consejos de compra y tutoriales » MuyComputer
[ Guías ]
PC de bajo coste para jugar a Fortnite y Overwatch en 1080p a 60 FPS

PC de bajo coste para jugar a Fortnite y Overwatch en 1080p a 60 FPS

Montar un PC de bajo coste con el que jugar en condiciones aceptables se ha vuelto complicado por el precio que han alcanzado las tarjetas gráficas y la memoria RAM, pero si combinamos componentes nuevos y usados podemos hacernos con un equipo bastante capaz haciendo un gasto razonable.En esta guía nos vamos a centrar en montar un PC de bajo coste con el que podremos jugar a Fortnite y Overwatch en 1080p a 60 FPS, pero que además tendrá la potencia necesaria para mover sin problemas otros juegos actuales, siempre que ajustemos la calidad gráfica para no sacrificar demasiada fluidez.Tened en cuenta que el listado de componentes que os dejamos es un guión que podréis modificar en función de vuestro presupuesto, aunque como hemos dicho en ocasiones anteriores os recomendamos que evitéis la compra de tarjetas gráficas nuevas hasta que se estabilicen los precios y se anuncien los modelos de nueva generación.Sin más preámbulos empezamos. Si tenéis cualquier duda podéis dejarla en los comentarios.Consideraciones básicas Fortnite y Overwatch no son juegos con unos requisitos elevados, pero tampoco podemos considerarlos como juegos poco exigentes. Si queremos moverlos con garantías en 1080p y poder mantener 60 FPS de forma estable vamos a necesitar una configuración base (mínima) como la que os describimos a continuación:Procesador de dos núcleos y cuatro hilos con un alto IPC (serie Kaby Lake o superior). Nos valdría también un Ryzen de cuatro núcleos. 8 GB de memoria DDR4. Tarjeta gráfica de gama media-baja con 2 GB de memoria GDDR5.Partiendo de esa base mínima tenemos diferentes opciones que vamos a concretar en una selección de componentes determinada, aunque como hemos indicado siempre podréis modificarla en función de lo que os permita vuestro presupuesto.El objetivo de la guía es montar un PC de bajo coste para jugar a Fortnite y Overwatch en 1080p a 60 FPS, así que intentaremos mantener el presupuesto lo más bajo posible. Plataforma y placa base Tenemos dos grandes opciones: AM4 de AMD y LGA1151 de Intel. Para mantener el precio lo más bajo posible sin hacer grandes sacrificios hemos optado por la primera, ya que nos permite acceder a una plataforma muy completa y muy asequible.En este caso hemos escogido una placa base MSI B350M PRO-VDH, que está equipada con el chipset B350 y nos permite hacer overclock tanto al procesador como a la memoria RAM que instalemos. Su relación calidad-precio es muy buena, ya que podemos conseguirla por 64,99 euros, un precio muy parecido al que tienen las placas base H310 de Intel.Con esa placa base podremos aprovechar a la perfección un procesador Ryzen, pero además tendremos la puerta abierta a futuras actualizaciones sin tener que cambiar de plataforma.Procesador Ya tenemos la placa base, ahora nos toca ir a por el procesador. Hemos optado por el Ryzen 3 1200, un chip que tiene cuatro núcleos y cuatro hilos a 3,1 GHz-3,4 GHz, 10 MB de caché y un TDP de 65 vatios.Este procesador soporta overclock cuando se acompaña de una placa base con chipset B350, lo que significa que en esta configuración podremos subir su velocidad de trabajo sin problema. Con el ventilador de referencia podemos alcanzar y mantener de forma estable los 3,7 GHz-3,8 GHz.El precio del Ryzen 3 1200 es de 83,68 euros.Memoria RAM Los procesadores Ryzen dependen de la velocidad de la memoria para desarrollar todo su potencial, pero tampoco debemos obsesionarnos con este tema ya que los modelos de primera generación alcanzan un nivel óptimo a partir de los 2.666 MHz.Sí, hay mejoras si utilizamos memorias a 2.933 MHz o 3.200 MHz, pero la relación precio-rendimiento se reduce de forma notable y dado que tenemos como meta gastar lo menos posible hemos optado por un kit de 8 GB de DDR4 (2 x 4 GB) G.Skill Ripjaws V Red a 2.666 MHz con latencias CL15.Podremos utilizarlas sin problemas y disfrutar de un buen nivel de rendimiento. Su precio es 95,75 euros.Tarjeta gráfica Es un componente fundamental. Tenemos un procesador de cuatro núcleos con un alto IPC y 8 GB de RAM a 2.666 MHz para jugar con garantías. Nuestro objetivo son Fortnite y Overwatch, pero también queremos tener la posibilidad de disfrutar de otros títulos en condiciones aceptables con resoluciones 1080p, así que debemos apurar al máximo la elección de la tarjeta gráfica.Dado que los precios de las tarjetas gráficas actuales están inflados y que queremos mantener el coste del equipo lo más bajo posible os recomendamos la GTX 750 TI de 2 GB, un modelo de la generación anterior (Maxwell) que podemos conseguir de segunda mano por un precio medio de 60 euros.Esta tarjeta gráfica cuenta con 640 shaders a 1.020 MHz-1.085 MHz, modo normal y turbo, 40 unidades de texturizado, 16 unidades de rasterizado, tiene un bus de 128 bits y 2 GB de GDDR5 a 5.400 MHz. Su TDP es de 60 vatios y no requiere conector de alimentación de 6 pines.Fuente de alimentación Tenemos un equipo con un consumo mínimo y una tarjeta gráfica que no requiere un conector de alimentación adicional, por lo que podríamos recurrir sin problemas a una torre con una fuente de alimentación integrada.Sin embargo hemos preferido desechar esa opción porque la placa base con chipset B350 nos permite ampliar el equipo en un futuro sin tener que cambiar la plataforma, y montar una fuente de alimentación muy justa podría obligarnos a cambiarla si decidimos llevar a cabo una ampliación.La Nox Urano SX de 500 vatios ha sido nuestra elección, ya que ofrece un buen valor para lo que cuesta y cubrirá sin problemas nuestras necesidades presentes y futuras. Si necesitáis montar una tarjeta gráfica de mayor potencia podréis hacerlo ya que tiene un amperaje de 36A en el carrill de 12V, pero no incluye conectores de 6 y 8 pines, así que necesitaréis adaptadores (cuestan menos de dos euros). Esta fuente cuesta 27,50 euros.Unidad de almacenamiento Por cuestiones de presupuesto hemos apostado directamente por un disco duro. Podríamos montar un SSD de bajo coste con una capacidad de 120 GB, pero tendríamos una fuerte limitación de espacio que no todo el mundo estaría dispuesto a soportar.La elección ha sido bastante sencilla ya que hemos encontrado el WD Blue de 1 TB por 39,99 euros, un precio muy bueno teniendo en cuenta todo lo que ofrece:1 TB de capacidad. 7.200 RPM de velocidad de giro. 64 MB de caché.Torre para el montaje Como siempre este punto se puede cambiar a vuestro antojo, siempre que tengáis cuidado de aseguraros de que el modelo que elegís tiene espacio suficiente para montar los componentes del equipo y de que el flujo de aire que permite es bueno.Hay muchas opciones, pero dentro de las económicas la Nox Pax Blue Edition USB 3.0 es una opción ideal para montar un PC de bajo coste, ya que tiene un diseño bonito, conectores frontales para USB y jack de 3,5, mucho espacio interno y un precio muy razonable: 23,99 euros.Incluye un ventilador de 120 mm, pero permite montar tres ventiladores más: dos en los laterales y uno en la parte trasera. Notas finales Nuestro objetivo era montar un PC de bajo coste para jugar a Fortnite y Overwatch en 1080p manteniendo 60 FPS, ¿lo hemos conseguido? Vamos a verlo ahora mismo: el coste total de este equipo es de 395,90 euros, una cifra muy razonable que encaja sin problemas en la categoría de PC de bajo coste.Hemos cumplido la meta de mantener un precio bajo, ¿pero de qué es capaz realmente ese PC de bajo coste? Os dejamos un resumen con algunas pruebas de rendimiento para que lo tengáis claro:GTA V en calidad alta y 1080p: medias de 67 FPS. Fortnite en calidad media y 1080p: medias de 63 FPS. Overwatch en calidad alta y 1080p: medias de 75 FPS. Battlefield 1 en calidad media y 1080p: medias de 62 FPS. Destiny 2 en calidad media y 1080p (SMAA): medias de 58 FPS.Enlaces de interés: Guías MC.
5 comentarios0 shares
9 horasIsidro Ros
Consejos para mantener tu ordenador en buen estado y alargar su vida útil

Consejos para mantener tu ordenador en buen estado y alargar su vida útil

Tener un ordenador implica asumir una serie de responsabilidades y de tareas básicas que deberemos cumplir si queremos mantenerlo en buen estado y evitar problemas a nivel de rendimiento y de estabilidad, y también si queremos alargar al máximo su vida útil.El uso continuado del ordenador, sea de sobremesa o portátil, y los efectos negativos de agentes externos como el calor o el polvo, pueden acabar generando un desgaste o pequeños problemas que podríamos solucionar con pequeños mantenimientos periódicos, pero si nos olvidamos de ello y dejamos el equipo abandonado a su suerte al final puede acabar sufriendo daños irreversibles, ya sea en todos o en parte de sus componentes.Somos conscientes de la importancia que tiene dar ese cuidado básico a un ordenador, y por ello hemos querido hacer esta guía en la que os daremos una serie de consejos básicos pero efectivos para mantener vuestro PC o portátil en buen estado y reducir el riesgo de que acabe sufriendo una "muerte prematura".Os recomendamos aplicarlos todos de forma conjunta, ya que así maximizaréis su efectividad. Si tenéis dudas podéis dejarlas en los comentarios. 1-Cuida el sistema de ventilación y de disipación Es algo básico pero completamente necesario. Ya sabemos cómo puede afectar el calor a los componentes electrónicos y los ordenadores no son una excepción. Aunque cuenten con un sistema de refrigeración activa son propensos a acumular polvo y suciedad con el uso que puede acabar reduciendo su efectividad.Lo mejor es hacer una limpieza a fondo del equipo cada año utilizando brochas en seco y botes de aire comprimido. También es recomendable cambiar la pasta térmica de los componentes que la utilicen cada dos o tres años, ya que con el paso del tiempo puede degradarse y perder efectividad.También es importante asegurarnos de que el sistema de ventilación que utiliza nuestro ordenador es el apropiado a los componentes que utiliza, ya que en caso contrario podremos tener problemas de temperatura. En este sentido también influye el flujo de aire, y para potenciarlo debemos mantener el interior del equipo lo más limpio posible. Esto incluye reducir el cableado y los obstáculos que puedan dificultar la entrada de aire frío y la salida del aire caliente.2-Tu ordenador debe estar lejos de fuentes de calor y de interferencias Un exceso de calor puede reducir el rendimiento del equipo y acabar dañando de forma permanente sus componentes, por lo que debemos evitarlo. En el punto anterior hemos hablado de la importancia del sistema de ventilación y para completarlo debemos tener claro que hay que evitar utilizar le PC cerca de fuentes de calor intenso, ya que acabará elevando la temperatura interna y podría producir daños.Las interferencias son otro problema importante que puede afectar a determinados componentes, como los discos duros por ejemplo, generar lo que conocemos como ruido en la imagen y en el sonido y reducir de forma notable la calidad de la señal WiFi.También es recomendable mantener nuestros equipos en zonas limpias, ya que en caso contrario el propio sistema de ventilación acabará absorbiendo el polvo y la suciedad del exterior al tomar aire para enfriar los componentes del sistema. 3-Cuida las conexiones y ten los cables ordenados Como dijimos es muy importante para el buen funcionamiento y la refrigeración del equipo. Unos cables desordenados pueden acabar afectando al flujo de aire y facilitar la acumulación de aire caliente en la torre, lo que se traducirá en un aumento de las temperaturas que puede llegar a ser muy peligroso.Los cables desordenados también pueden ocupar un espacio muy valioso y limitar las posibilidades de ampliación si acaban obstaculizando a otros componentes o si ocupan ranuras de expansión. Por ello lo ideal es hacer montajes ordenados e intentar que sólo asome el cableado estrictamente necesario.Por último también es conveniente revisar las conexiones, ya que en ciertos casos los fallos de algunos componentes pueden estar debidos a un cable flojo o mal conectado. Sólo nos llevará un minuto y puede ahorrarnos muchos quebraderos de cabeza.4-Batería en portátiles La batería es uno de los componentes más importantes en cualquier ordenador portátil y dada la tendencia actual de muchos fabricantes de integrarla en la carcasa es conveniente cuidarla al máximo para evitar una reparación que puede llegar a ser muy costosa.No hay ningún consejo milagroso ya que es un componente que se degrada por el simple uso, pero os dejamos tres recomendaciones que os ayudarán a mantenerla en buen estado el mayor tiempo posible:No uses el portátil siempre conectado a la red y con la batería puesta y cargada al 100%, es recomendable consumirla un poco de vez en cuando. Evita acercarla a fuentes de calor intenso, ya que el calor tiene efectos muy nocivos en las baterías de ion de litio. Nada de descargar totalmente la batería, es mejor cargarlas de forma más continua y en ciclos cortos que hacer recargas largas cuando están totalmente vacías.5-Protégete contra subidas y bajadas de tensión Las fuentes de alimentación modernas tienen medidas de protección integradas contra picos de tensión, pero lo más recomendable si queremos evitar un daño grave a nuestro equipo derivado de un apagón o de una subida de tensión es un sistema SAI, siglas en ingles de sistemas de alimentación ininterrumpida.Estos dispositivos actúan como amortiguadores de picos diversos de tensión y nos protegen incluso de microcortes, mejorando en general la calidad de la electricidad que llega a nuestro PC y al resto de componentes.Si se produce un apagón recibiremos un aviso, normalmente en forma de sonido, que indica que sus baterías integradas están en funcionamiento porque se ha ido la luz y que tenemos unos minutos para apagar el equipo de forma segura. Es importante asegurarnos de que el SAI que hemos adquirido tiene potencia suficiente para mantener nuestro PC durante unos minutos en caso de que se corte la luz.6-Actualizaciones y software Mantener el software en buen estado es vital para el buen funcionamiento del PC. Por ello debemos mantener el equipo actualizado, tanto a nivel de sistema operativo como de controladores, y es recomendable apostar por soluciones antimalware ligeras, acompañadas de un poco de sentido común en el uso diario.También es aconsejable instalar aplicaciones y programas con un mínimo de sentido común, ya que nos ayudará a evitar una acumulación innecesaria de software que podría acabar afectando negativamente al rendimiento del equipo.Si utilizamos discos duros mecánicos las herramientas de desfragmentación pueden ayudarnos a mejorar el rendimiento, y por ello es recomendable utilizarlas de forma periódica. En casos extremos hacer una instalación limpia del sistema puede devolver al nuestro ordenador ese "pico de velocidad" que tenía cuando lo compramos. 7-Haz un buen uso de las cosas Aunque para muchos sea evidente lo cierto es que no todo el mundo lo entiende. Los movimientos bruscos, los golpes, la extracción de periféricos sin tener el visto bueno del sistema operativo y otras prácticas como comer o beber cerca de nuestro equipo pueden acabar teniendo consecuencias desastrosas.Obvia decir que es recomendable evitar todas esas prácticas si queremos que nuestro ordenador se mantenga en buen estado y alargar su vida útil. Otras acciones que están generalizadas, como utilizar el portátil en la cama o moverlo cuando está encendido no tienen porque tener consecuencias negativas, pero debemos recordar que los discos duros son sensibles a las sacudidas y pueden dañarse, y que las superficies blandas pueden acabar bloqueando total o parcialmente el sistema de ventilación del equipo y favorecer la acumulación del calor.Finalmente también podríamos incluir en este punto el buen uso del equipo a nivel de software. Esto implica tener cuidado con las webs que visitamos, las cosas que descargamos y las aplicaciones que instalamos. Para ello basta con evitar medios de dudosa confianza y en caso de duda esperar siempre antes de aceptar o de instalarEnlaces de interés: Guías MC.
1 comentario0 shares
1 díaIsidro Ros
Realidad virtual, realidad aumentada y realidad mixta: todo lo que debes saber

Realidad virtual, realidad aumentada y realidad mixta: todo lo que debes saber

Durante los últimos años hemos visto como el concepto tradicional de realidad virtual acababa siendo acompañado por otros dos términos importantes: realidad aumentada y realidad mixta. En general todos tenemos una idea bastante clara de lo que es la realidad virtual ya que no es una tecnología nueva, ¿pero sabes cómo posiciona frente a la realidad aumentada y a la realidad mixta? ¿Conoces sus diferencias más importantes?En este artículo vamos a profundizar sobre esos tres tipos de "realidades", os contaremos qué es exactamente cada una y como trabajan, y veremos todas sus particularidades y diferencias para que tengáis una visión más completa de todas sus claves. Una mirada previa Como anticipamos la realidad virtual no es algo nuevo, lleva entre nosotros varias décadas y ha llegado a tener presencia en el mercado de consumo general. Uno de los mejores ejemplos (y también de los más conocidos) ha sido Virtual Boy, una consola que Nintendo lanzó en los años noventa y que apostaba por un enfoque muy original ya que contaba con una pantalla integrada en un visor similar a los cascos de realidad virtual actuales.Aunque la idea era innovadora su ejecución fue muy pobre y no tuvo el éxito esperado. En este sentido debemos ser comprensivos, ya que las limitaciones a nivel de hardware de aquella época impedían la creación de un auténtico kit de realidad virtual para el mercado de consumo general, algo que sin embargo sí se ha cumplido con la llegada de soluciones como el Oculus Rift, el HTC Vive y el PSVR.Con esta pequeña introducción podemos poner en perspectiva el largo camino que ha recorrido el concepto de realidad virtual desde sus primeros movimientos en el mercado de consumo general hasta su maduración hace cosa de un par de años. Virtual Boy mostraba escenas fijas junto con elementos móviles e intentaba crear un efecto 3D, pero sólo trabajaba con tonos de rojo sobre un fondo negro y como anticipamos el resultado en general era muy pobre, tanto que parece un producto años luz de lo que puede conseguir un PC de gama media unido a un Oculus Rift.Entre ambos productos hay una diferencia temporal de 21 años, un lapso de tiempo bastante grande si tenemos en cuenta lo rápido que avanza el sector tecnológico y el peso que tienen los años en dicho mundillo.Realidad virtual: un mundo aparte La realidad virtual parte de una base muy simple: crear un mundo virtual en el que el usuario puede sumergirse para aislarse por completo del mundo real. Kits como los citados Oculus Rift, el HTC Vive y PSVR son un claro ejemplo, ya que vienen con una pantalla integrada y cuando se utilizan nos aíslan del exterior a nivel audiovisual.Ese aislamiento es la gran diferencia que presenta la realidad virtual frente a la realidad aumentada y a la realidad mixta. Esta tecnología crea mundos, entornos y realidades totalmente independientes del exterior con las que podemos interactuar y nos ayuda a evadirnos de la realidad.Por ejemplo un juego de realidad virtual nos permite vivir una experiencia única en primera persona y sumergirnos de lleno en la acción sin ninguna injerencia del mundo exterior, cosa que sí ocurre con bastante frecuencia cuando utilizamos una pantalla estándar. Esa inmersión hace que vivamos el juego de una forma única: todo es más intenso y real, tanto que podemos llegar a tener sensaciones cercanas a las que nos transmitirían esas escenas en el mundo real.En los juegos de terror los sustos se intensifican y lo mismo ocurre en aquellos que ofrecen experiencias extremas. En este sentido recuerdo una demostración de un juego sencillo de cruzar de un rascacielos a otro por una tabla de madera, un objetivo que algunos jugadores no podían cumplir utilizando un kit de realidad virtual porque sufrían un golpe de vértigo a pesar de que eran conscientes de que aquello no era real.El futuro de la realidad virtual pinta brillante. Gracias al avance de la tecnología y al desarrollo de diferentes mejoras será posible potenciar la calidad de los juegos y crear experiencias más realistas y profundas, y también eliminar los efectos adversos que produce el uso de los kits actuales (mareos y dolores de cabeza principalmente).No debemos olvidar que gracias a esa inmersión y a ese aislamiento se crea el escenario perfecto para desarrollar periféricos y accesorios que complementen la experiencia de realidad virtual. Las posibilidades son casi infinitas, pero se nos ocurren algunas ideas como asientos especiales que generen vibraciones o sacudidas acordes a lo que vemos en pantalla o sensores para el cuerpo con electrodos capaces de generar estímulos "realistas" (pequeña descarga al recibir un disparo virtual, por ejemplo).Realidad aumentada: construyendo sobre el mundo real La realidad aumentada es algo bastante curioso. Su idea base es totalmente opuesta a la de la realidad virtual, ya que no busca ese aislamiento del mundo exterior ni crea una realidad totalmente ajena a aquél, pero se basa también en el uso de kits montados sobre la cabeza del usuario para que pueda visualizar de forma directa los contenidos que va creando y requiere igualmente de una gran potencia a nivel de hardware para ofrecer una buena experiencia de uso.En la realidad aumentada se crean contenidos virtuales que son aplicados (o superpuestos) sobre el mundo real. El mejor exponente de esta tecnología son las gafas HoloLens de Microsoft, que llevan un tiempo entre nosotros pero de momento siguen limitadas al mercado profesional.Con HoloLens podemos mirar por ejemplo el motor de un coche y visualizar indicadores que nos digan los nombres de cada pieza y sus particularidades. También podríamos unir elementos de un juego sobre el mundo real (por ejemplo un combate de lucha con personajes virtuales sobre una calle de nuestra ciudad). Sus posibilidades son claras y como vemos su base también: unir el mundo real y el mundo virtual.Sus posibilidades son enormes y no es imprescindible contar con un kit de realidad aumentada, ya que esta tecnología ha llegado también a los smartphones y está ofreciendo experiencias muy interesantes, pero es cierto que todavía se encuentra en una etapa algo "temprana" y que todavía queda mucho camino por delante antes de que podamos explotar todo su potencial.Realidad mixta: lo mejor de ambos mundos El concepto de realidad mixta es el que más dudas genera actualmente. Para que nos entendamos a la primera podemos definirlo como la unión de la realidad virtual y de la realidad aumentada para crear una experiencia única combinando lo mejor de ambas tecnologías.En la realidad mixta tenemos todo un mundo virtual que ha sido recreado sobre el mundo real, lo que significa que podemos interactuar con el primero de forma plena sin evadirnos totalmente del segundo, cosa que sí ocurre con la realidad virtual.Por si alguien tiene dudas matizamos que sí, que la realidad mixta es considerada como una evolución de la realidad aumentada, puesto que no se limita a crear contenidos virtuales en el mundo real, sino que es capaz de reconstruir espacios completos y personas en un mundo virtual que puede interactuar con el mundo real.Firmas como Microsoft están convencidas de que ésta vertiente es la más interesante y la que tiene una mayor proyección de futuro. Sus HoloLens son capaces de ofrecer una buena experiencia en realidad mixta, pero se espera que la segunda generación de dichas gafas venga con mejoras importantes que le permitan llevarla a un nivel superior.En resumen, la realidad mixta es la fusión de lo mejor de la realidad virtual y de la realidad aumentada, una tecnología que en el futuro será capaz de difuminar la línea que separa al mundo real del mundo virtual haciendo que ambos coexistan en el plano único del visor de un kit de realidad mixta.Una opinión personal La realidad virtual y la realidad aumentada llevan ya un tiempo presentes en el mercado de consumo general. Su éxito ha sido relativo, pero es evidente que el principal problema que presentan es la falta de contenidos capaces de aprovechar sus posibilidades y de llamar la atención del usuario.Es sólo cuestión de tiempo hasta que el ecosistema de software dedicado a ambas tecnologías mejore, y cuando eso ocurra creo que veremos un despegue importante en la tasa de adopción de ambas en el sector de consumo general, y lo mismo debería ocurrir con la realidad mixta.Por lo que respecta al dominio de una u otra tecnología no creo que debamos enfocarlo desde esa perspectiva. Pienso que las tres modalidades están llamadas a coexistir porque ofrecen una experiencia distinta que puede ser atractiva para diferentes usuarios y para cubrir necesidades muy distintas, aunque esto no quita que una pueda acabar teniendo más éxito que otra.Os invito a que nos contéis en los comentarios cuál de estas tecnologías os parece más interesante y qué esperáis de ellas a largo plazo.
2 comentarios0 shares
2 díasIsidro Ros
Cómo limitar el calentamiento de un PC en pleno verano

Cómo limitar el calentamiento de un PC en pleno verano

El calentamiento de un PC es un fenómeno inevitable. Una parte de la energía de sus componentes eléctricos se transforma en calor elevando su temperatura. Si sumamos el verano del hemisferio norte y los 40 grados a la sombra de algunos puntos de la geografía española, puedes imaginar los padecimientos de nuestros ordenadores personales si no los cuidamos.El calentamiento de un PC afecta directamente a su funcionamiento. La subida de temperatura por encima de unos límites razonables provoca errores, pérdida de datos, bloqueos, reinicios y/o apagados, reduce la vida útil de los componentes y en casos extremos daños irreparables a algunos de ellos.Aunque un PC está preparado para funcionar a altas temperaturas y tiene controles para limitar su impacto, su control es obligatorio para los que quieren extraer el máximo rendimiento de su ordenador personal. Tanto en equipos básicos como en los más avanzados que utilizan técnicas de overclocking y exprimen el rendimiento de componentes como CPU y GPU, aumentando con ello las temperaturas de funcionamiento. En estos días de calor, vamos a repasar algunas tareas comunes que pueden realizar cualquier usuario, deben formar parte del mantenimiento habitual y ayudan a limitar el calentamiento de un PC. Verificar y controlar las temperaturas de un PC Conviene iniciar el proceso con la comprobación de la temperatura real de los principales componentes de nuestro equipo, CPU, GPU y unidades de almacenamiento, así como la del chasis en su conjunto. Hay muchas herramientas gratuitas que nos ofrecen la información que necesitamos, como Speccy, PC Wizard o HWMonitor, que registran temperaturas, voltajes o velocidades de los ventiladores que a la postre forman el conjunto a tener en cuenta. Como un dato de referencia a tener en cuenta, la temperatura de funcionamiento máxima de una CPU debe estar entre 70 y 80 grados, aunque en un equipo estándar es sencillo mantenerlo bastante más bajo.Los fabricantes de placas base también ofrecen este tipo de información en sus herramientas de escritorio y en unas BIOS UEFI cada vez más completas.Limpieza general El polvo se acumula en cualquier PC sin importar lo moderno que sea, sobremesa o portátil. Obstruye conductos de ventilación, reduce la eficacia de los ventiladores y llega hasta pararlos. Una limpieza regular puede ayudar a mantener un correcto flujo de aire de refrigeración. La imagen siguiente es una bomba de relojería y te sorprendería saber el gran número de equipos en ese estado (y peores).En un PC de sobremesa su limpieza es muy sencilla. Una vez apagado el equipo, desconectado el cable de alimentación y descargada la electricidad estática, abrimos el chasis y procedemos a su limpieza. Aspirar o soplar dan buenos resultados aunque lo ideal es utilizar un bote de aire comprimido, alcohol isopropílico y paños de microfibra para una limpieza completa.Personalmente, desmonto cada cierto tiempo todos y cada uno de los componentes, limpio y vuelvo a montar, con especial atención a los ventiladores de CPU y GPU, fuente de alimentación y los del chasis. Un truquito a tener en cuenta es sujetar las aspas de los ventiladores cuando aplicamos el aire comprimido. Si giran “locos” te harán un molesto ruido de por vida. Limpieza de un portátil Cuidado especial en la limpieza de nuestro ordenador portátil, que además de mejorar su aspecto es muy importante para su funcionamiento, una mejor visualización de la pantalla, mejor respuesta del teclado o el importante apartado de la refrigeración. La limpieza debe comenzar por desconectar el portátil de la red eléctrica, desenchufar todos los periféricos y cableado y también retirar la batería si es extraíble. A partir de ahí las tareas principales a realizar son las siguientes:Limpieza del chasis. Es una tarea simple y sencilla utilizando productos especializados u otros que todos tenemos a mano. Simplemente agua tibia ligeramente jabonosa y un paño tipo microfibra bien escurrido que no deje pelusas, con especial cuidado de no introducir ningún tipo de líquido por las rejillas de ventilación. Hay un montón de kits a la venta en Internet muy baratos que también te valdrán para la pantalla y que incluyen paños y líquidos específicos. Recuerda, sin amoniacos ni alcoholes.Limpieza del teclado. Comenzaríamos por retirar polvo y restos (de todo tipo) entre las teclas con un bote de aire comprimido y/o un mini aspirador especial para teclados que suele incluir un cepillo limpiador para accesos a zonas difíciles. Después haríamos la limpieza de la misma forma que con el chasis, evitando también que la humedad se cuele por debajo de las teclas y afecte a la electrónica.Limpieza de la pantalla. La limpieza de la pantalla es la más delicada ya que no está diseñada para entrar en contacto con la humedad. Como con el chasis, podemos utilizar productos especializados, paños que no rayen y líquidos o espumas sin alcoholes añadidos. También podemos crear soluciones caseras, creando un líquido mezclando al 50% agua destilada y vinagre blanco. A partir de ahí utilizaríamos un paño de microfibra para limpiarla y otro para secarla, siempre de manera muy suave y asegurándonos que no queden restos de líquido.Limpieza de las rejillas de ventilación. Un apartado importante porque la suciedad o polvo localizada en estas aberturas puede disminuir el rendimiento del equipo, obligar a que los ventiladores estén permanentemente conectados e incluso apagar el equipo si sube de temperatura por encima del límite de seguridad. La suciedad acumulada es una de las principales causas de bloqueos o cierres por temperatura en un portátil. El mini aspirador comentado para el teclado y el bote de aire comprimido (teniendo cuidado con la presión para no dañar los componentes) son el material a utilizar. Recuerda: bloquea los ventiladores para que no giren locos.Desmontado si es posible. Si tu portátil lo permite, pueden retirarse algunos paneles para mejorar el acceso, pero conviene tener en cuenta que hay que tener ciertos conocimientos y que algunos fabricantes pueden anular la garantía si se abre el portátil. Si tienes conocimientos y no hay problema con la garantía, un desmontado y limpieza general anual viene de perlas. Incluye el cambio de pasta térmica en la CPU una vez hayas accedido al interior. Refrigeración CPU – GPU El microprocesador es el corazón de nuestro equipo y un buen sistema de refrigeración (por supuesto, lo más limpio posible) es imprescindible para mantener una temperatura correcta. Ventilador que siempre hay que separar del disipador porque éste acumula también gran cantidad de polvo como vemos en la siguiente imagen:El modelo de ventilador también importa. Intel y AMD ofrecen ventiladores-disipadores en la venta en retail de muchos de sus modelos de CPUs (no en todos). Son suficientes para un uso básico pero en cuanto pretendas hacer overclocking o seas un usuario algo más exigente, tendrás que pasar por caja y comprar un modelo de terceros.La refrigeración por aire es la más habitual pero los sistemas de refrigeración líquida se han extendido en los últimos años a medida que ha aumentado la oferta y ajustado precios. Es una gran opción porque además de mantener temperaturas bajas, su nivel de ruido suele ser muy bajo. Casi todos los sistemas se venden con todos los elementos necesarios incluidos, ventiladores, radiador o líquido. Hay verdaderas maravillas integradas que cubren la refrigeración de todos los componentes.En consumo no necesitamos tanto. Hay una buena oferta con precios no excesivamente caros de sistemas líquidos para CPU, GPU o chasis. Tanto si apuestas por ellos como si utilizas ventiladores por aire, asegúrate que tienes espacio suficiente en tu torre para montarlo.Mención especial para el cambio de pasta térmica. Es un compuesto que facilita la transmisión de calor entre el encapsulado del procesador y el disipador del ventilador. Una pasta térmica de calidad mejorará esa transmisión y ayudará a mantener temperaturas bajas. No hay que realizarlo con tanta frecuencia como la limpieza pero de vez en cuando procura reemplazarla.La pasta es ineficaz cuando se aplica poca cantidad y también cuando se aplica mucha. Usa el método del “guisante”. Una gota en el medio de la die es suficiente. La presión natural del disipador la extenderá uniformemente por toda la superficie.Las tarjetas gráficas dedicadas son otro punto a cuidar. Incluyen su propio sistema de disipación-refrigeración y conviene desmontarla de su ranura PCIe y limpiar a fondo sus ventiladores. Los grandes fabricantes ofrecen aplicaciones para su control y configuración, pudiendo personalizar su velocidad según la temperatura alcanzada. Si vas a darle caña de la buena o montas sistemas multigráfica, puedes valorar la compra de sistemas de refrigeración externos para GPU. Ventiladores – Flujo de aire – Cableado La superficie efectiva (tamaño en mm) y la velocidad de rotación, son medidas que definen la eficacia de los ventiladores para el chasis que también conviene revisar y limpiar. Buscar el equilibrio entre el ruido emitido y la velocidad para mantener “fresquito” el chasis y los componentes es el objetivo. Aplicaciones como SpeedFan  permiten modificar la velocidad de rotación de los ventiladores, algo que también podemos hacer en las aplicaciones de los fabricantes de placas y en las UEFI.Depende de las posibilidades de tu torre pero hay veces que colocar estratégicamente un ventilador de calidad y buen tamaño (120 mm) es suficiente para mantener a raya la temperatura del chasis, manteniendo de paso el flujo de aire adecuado.Hablamos de chasis y como siempre, recomendamos equilibrar el presupuesto en la creación de un PC. Hay usuarios que gastan mucho dinero en una simple gráfica y no invierten 60 euros en una buena torre que le va a durar muchísimos años. Son repetidos casos en servicios de soporte donde abundan las preguntas “no me coje la gráfica”. Para matarnos. Ya sabes, una buena torre permite instalar todos nuestros componentes de forma solvente, está preparada para actualizaciones futuras y garantiza un flujo de aire correcto.Lo mismo podemos decir de una fuente de alimentación. No solo tiene que estar limpia su ventilador sino también su interior (la primera vez que la desmontes te sorprenderá ver la cantidad de polvo acumulado) sino que es fundamental también en aspectos de temperatura, porque la entrega del voltaje está relacionado directamente.Finalmente, destacar la necesidad de colocar correctamente el cableado, otra fuente de sobrecalentamiento y recogida de polvo. Hay cableado especial y torres que facilitan las cosas pero al menos debemos utilizar abrazaderas plásticas para recoger el cableado y dejar el máximo espacio libre en el interior del chasis para mejorar la circulación del aire.Como vemos, limitar el calentamiento de un PC es sencillo si lo tomamos como una tarea de rendimiento regular. Los componentes de refrigeración avanzados cuestan bastante dinero, pero dedicar un rato de nuestro tiempo simplemente en limpieza, es gratis y muy ventajoso para evitar problemas y aumentar la vida útil de los componentes. Aprovecha estos días de verano y cuéntanos tu experiencia y trucos para mantener a raya la temperatura.
5 comentarios0 shares
2 díasJuan Ranchal
Cómo crear y gestionar puntos de restauración en Windows

Cómo crear y gestionar puntos de restauración en Windows

Los puntos de restauración en Windows son una función que pueden salvarnos la vida para resolver problemas en el sistema operativo ante ante un error del software, la entrada de un virus o la simple instalación de drivers o de alguna aplicación que no funciona correctamente y que en ocasiones desestabiliza el sistema operativo.Los puntos de restauración en Windows se crean y gestionan con la herramienta de recuperación del sistema System Restore. Su funcionamiento es tan simple como potente. La utilidad guarda los archivos y configuración principal del sistema operativo, ajustes, controladores, claves del registro o programas instalados y en caso de errores, permite revertir los cambios realizados y volver a un estado anterior donde el sistema funcionaba correctamente.Su funcionamiento y gestión es básicamente el mismo en Windows 7, 8.1 y 10 y es muy útil para cualquier usuario cuando el sistema no funciona bien o lo hace de forma errática como resultado de alguna instalación o modificación en sus parámetros. Algo nada infrecuente en los sistemas de Microsoft. Cómo crear puntos de restauración en Windows Para comprobar si tenemos la función activa o gestionarla, acedemos a la herramienta de Protección del sistema situada en el panel de control del sistema operativo o directamente desde el cuadro de búsqueda escribiendo "system restore" o "puntos de restauración":Así entraremos en la herramienta de ‘Sistema/Protección del Sistema’ y podremos ver si tenemos activada la función de restauración del sistema y en cuántas de las unidades disponibles. Recomendamos al menos activarla en la partición de disco donde tengamos instalado el sistema operativo. También podremos establecer la configuración, administrar el espacio en disco que tenemos dedicado y eliminar puntos de restauración anteriores que no vayamos a utilizar.Pulsamos sobre Configurar y activamos la protección del sistema. También tendremos que fijar el uso del espacio de la unidad de almacenamiento que vamos a asignar a esta función de restauración y que dependerá de nuestras necesidades y de la capacidad total que tengamos en el equipo.Una vez activada la función ya podemos crear puntos de restauración cuando nos interese, recomendando hacerlo antes de cambios en hardware, instalación de controladores o de aplicaciones de las que dudamos de su funcionamiento. Obviamente, debemos crear los puntos de restauración cuando el sistema funciona correctamente. Cómo restaurar el sistema Una vez creados los puntos de restauración ya podemos utilizarlos para deshacer esos cambios no deseados que han provocado los errores en el sistema. Desde la misma pantalla de ‘Propiedades del sistema’ podemos restaurar el sistema para revertir el equipo a un punto anterior en caso de problemas.Simplemente pulsa sobre el botón ‘Restaurar sistema’ y elige uno de los puntos que hemos creado manualmente o un punto automático creado por el mismo sistema.La herramienta restaurará los archivos y configuración principal del sistema operativo, ajustes, controladores, claves del registro o programas instalados al momento en que fueron creados y a un funcionamiento correcto del sistema. Como eliminar puntos de restauración en Windows Si deseas eliminar los puntos de restauración anteriores para dejar espacio a los nuevos puedes borrarlos todos desde la misma herramienta:Si lo que quieres es borrar puntos individuales también puedes realizarlo aunque para ello hay que acudir a otros métodos más avanzados y en concreto a la consola de Windows. Abre la terminal con privilegios administrativos y escribe el comando "vssadmin list shadows":Los puntos de restauración no están listados con el nombre que estableciste en el modo gráfico sino en una ID de instantánea. Para borrar un punto de restauración individual copia y pega ese identificador con el comando "vssadmin delete shadows /shadow=(ID de la instantánea)".Como habrás visto, esta herramienta de recuperación del sistema es un auténtico salvavidas que no te llevará más de unos minutos gestionar y que te puede ahorrar tiempo y disgustos si un problema de software (que suele ser común en los sistemas de Microsoft) te obliga a instalar de nuevo todo el sistema y aplicaciones y no cuentas con estos puntos de restauración en Windows. Y si lo combinas con la función de copia de seguridad mejor que mejor, porque es otra tarea de mantenimiento esencial para cualquiera que pretenda proteger la información personal y corporativa de un equipo informático.
2 comentarios0 shares
16/07/2018Jose Montes
Guía: ¿Qué debe tener un buen smartphone?

Guía: ¿Qué debe tener un buen smartphone?

Has tomado una decisión, quieres comprar un nuevo smartphone pero estás perdido por la gran oferta de terminales que ofrecen los grandes del sector. También tienes dudas por la avalancha de modelos de bajo coste que vienen directamente de China, y no sabes qué camino deberías tomar.Estoy convencido de que muchos de nuestros lectores han pasado por esa situación y puede que algunos se encuentren en ella ahora mismo. Tranquilos, es normal, el sector smartphone ha experimentado una evolución muy grande en muy poco tiempo que ha generado cambios muy grandes.Una de las consecuencias más importantes se ha dejado notar en la gama media, que se ha ampliado de forma notable en sus extremos (gama media-baja y gama media-alta) y a su vez ha visto como la delgada línea que la diferencia de la gama alta se ha ido difuminando cada vez más.En este artículo nos vamos a centrar en valorar las claves más importantes que debéis tener en cuenta a la hora de elegir un buen smartphone, partiendo como no de esa base fundamental que forman vuestro presupuesto y las necesidades básicas que necesitáis cubrir. Consideraciones previas a la hora de elegir un smartphone Como hemos indicado lo primero que debemos tener en cuenta es nuestro presupuesto y el uso que queremos dar al smartphone. Si sólo lo queremos para comunicarnos (llamadas y mensajería instantánea) nos basta con un terminal de gama baja (menos de 100 euros). Por contra si queremos navegar por Internet, consumir contenidos multimedia, disfrutar de juegos y tener una buena experiencia con las cámaras debemos ir a por un modelo de gama media (entre 200 y 300 euros).Los smartphones de gama alta normalmente cuestan más de 500 euros y ofrecen un rendimiento superior en todos los sentidos, tanto con juegos y aplicaciones exigentes como en términos de cámara y de conectividad. Sin embargo debemos tener en cuenta que no todo el mundo aprovecha de forma óptima un terminal de este tipo, y que en esos casos nos encontramos con un gasto innecesario que podríamos haber evitado.Otro aspecto a tener en cuenta es el sistema operativo. Esto está relacionado con el presupuesto, ya que los terminales basados en iOS tienen un precio medio de venta superior a los que utilizan Android. Esto no significa que ofrezcan una especificaciones superiores, sino simplemente que permiten acceder a una plataforma distinta que tiene sus ventajas y sus desventajas.Para que os sirva de orientación hemos hecho un resumen con los pros y los contras de ambos sistemas operativos:Ventajas de iOS:Tiene mayor soporte (cinco años de media) y recibe actualizaciones siempre a tiempo. Mayor optimización que permite conseguir un mayor rendimiento con un hardware más ajustado. Mayor seguridad gracias al enfoque sandbox del sistema operativo. Buen ecosistema de aplicaciones.Desventajas de iOS:El enfoque sandbox limita las posibilidades del sistema operativo, tanto a nivel funcional como de personalización. Los terminales que lo utilizan tienen precios elevados incluso en sus gamas más bajas.Ventajas de Android:Es un sistema operativo flexible con grandes opciones de personalización. Tiene un enorme ecosistema de aplicaciones. Se utiliza en una gran variedad de terminales con precios para todos los bolsillos. Su seguridad ha mejorado de forma notable durante los últimos mesesDesventajas de Android:El soporte a nivel de sistema operativo se limita a dos años y las actualizaciones llegan tarde. La optimización es menor y las capas de personalización pueden reducir el rendimiento. La seguridad y la fragmentación tienen un amplio margen de mejora.La elección de uno u otro sistema operativo dependerá por tanto de vuestro presupuesto pero también de vuestras necesidades. Como vemos ninguno de los dos sistemas operativos es perfecto, cada uno tiene sus cosas buenas y sus cosas malas, y al final sois vosotros los que deberéis tomar una decisión. ¿Qué debo buscar en un buen smartphone? Son muchos los puntos que debemos valorar, así que vamos a adoptar una estructura sencilla pero útil que os permitirá tener claro de un vistazo esos puntos básicos que debéis priorizar a la hora de comprar vuestro nuevo smartphone.No profundizaremos en tecnicismos ni entraremos en complicaciones innecesarias a nivel técnico, ya que queremos que esta guía sea útil para todo el mundo, pero si tenéis cualquier duda podéis dejarla en los comentarios. Pantalla y resolución Un buen terminal debe contar con una pantalla equilibrada en tamaño y en resolución. Esto es importante, ya que si adquirimos un terminal con una pantalla muy grande que tenga una resolución inapropiada veremos claramente los píxeles y notaremos una falta de definición considerable.Pantallas de menos de 4,5 pulgadas: son recomendables para usuarios básicos que no vayan a consumir grandes cantidades de contenidos multimedia. A partir de 960 x 540 píxeles nos encontramos en un nivel aceptable. Pantallas de 4,7 a 5 pulgadas: son una buena opción para usuarios medios que tengan presupuestos muy ajustados. Deben tener como mínimo resolución HD (1.280 x 720 píxeles). Pantallas de 5,1 a 5,5 pulgadas: en general son el estándar ideal para grandes consumidores de contenidos multimedia y juegos. Debemos buscar como mínimo una resolución de 1.920 x 1.080 píxeles (FullHD). Pantallas de mayor tamaño: son terminales muy grandes que pueden ser incómodos de llevar encima salvo que reduzcan su tamaño utilizando formatos de pantalla 18:9 o 19:9. En estos casos debemos partir también de la resolución FullHD como nivel recomendado.Tipo de panel y formato Actualmente los tipos de panel más utilizados son los LCD IPS y los OLED. Algunos vendedores de smartphones utilizan ambos formatos en su versión "pura", mientras que otros introducen determinadas personalizaciones que normalmente mejoran aspectos como el brillo, el consumo o la representación de colores.Del tipo de panel que elijamos dependerá el precio del smartphone y también la calidad de la pantalla. En general los smartphones que utilizan un panel OLED suelen ser más caros que los que utilizan un panel IPS, aunque esto no significa que sean superiores a aquellos en todos los aspectos.Por regla general un panel OLED es más ligero y delgado, más eficiente (consume menos energía), ofrece colores más vivos y saturados y consigue negros puros. Sin embargo tiene un brillo máximo inferior, lo que significa que pueden dar problemas en exteriores bajo una luz muy intensa. También pueden sufrir problemas de persistencia de la imagen, un fallo que se conoce popularmente como "quemadura" y que deja marcas permanentes en la pantalla del terminal.Los paneles IPS son más económicos, tienen un pico de brillo mayor, se ven mejor en exteriores y muestran una imagen más realista con blancos más limpios, pero consumen más energía y son mas gruesos.Es cierto que muchos consideran que los paneles OLED son muy superiores a los IPS, pero al final cada uno tiene sus ventajas y desventajas y la elección de uno u otro dependerá no sólo de vuestro presupuesto, sino también de vuestros gustos.Pasando al formato de pantalla hemos dado un salto del clásico 16:9 a los 18:9 y 19:9. El primero es el que todos conocemos y que se mantiene en terminales como los iPhone 8 y iPhone 8 Plus, el segundo está presente en los Galaxy S9 y Galaxy S9+ y el tercero en los iPhone X. Un formato de pantalla mayor significa que tenemos menos marcos y una pantalla más grande en un smartphone más compacto.Por ejemplo un iPhone X tiene una pantalla de 5,8 pulgadas, pero gracias al formato de pantalla 19:9 es más pequeño que el iPhone 8 Plus de 5,5 pulgadas. Estos nuevos formatos de pantalla han llegado a la gama media y se están extendiendo a la gama baja, pero no son necesariamente mejores que el 16:9, así que de nuevo os remitimos a vuestro criterio personal.SoC y memoria RAM El SoC es el corazón del smartphone. Este componente integra elementos tan importantes como el procesador y la unidad gráfica. Los smartphones de gama baja cuentan con procesadores de dos o cuatro núcleos Cortex-A53 y montan GPUs de bajo rendimiento que no podrán con juegos pesados.Por contra los smartphones de gama media incluyen procesadores de entre seis y ocho núcleos, combinando arquitecturas Cortex-A53 y Cortex-A73 (o superiores) con GPUs que pueden mover juegos exigentes pero ajustando las configuraciones gráficas.Finalmente los modelos de gama alta vienen con CPUs de ocho núcleos vienen con cuatro núcleos Cortex-A73 o superior y cuatro núcleos Cortex-A53 o superior. Sus unidades gráficas son lo bastante potentes como para mover juegos exigentes con calidades muy altas o máximas.A continuación os ponemos ejemplos concretos de SoCs agrupados en diferentes gamas:Gama baja: Snapdragon 425, Exynos 7570. Gama media: Snapdragon 625-630, Snapdragon 660, MediaTek Helio P60, Exynos 7870, Kirin 659. Gama alta: Snapdragon 835, Snapdragon 845, Exynos 8890, Exynos 9810, Kirin 970.En el caso de Apple la tónica es distinta. La compañía de la manzana ha apostado por priorizar la optimización y el rendimiento mononúcleo sobre el total de núcleos. También ha utilizado GPUs diferentes y ha creado SoCs muy distintos a los que podemos encontrar en dispositivos Android. Con todo lo que hemos dicho anteriormente sobre la gama baja, media y alta se traslada de forma íntegra.Para ayudaros a tener claros los distintos niveles de SoCs que utiliza Apple os dejamos una división con ejemplos concretos:Gama baja: Apple A7 y Apple A8 (iPhone 5s y iPhone 6-6 Plus). Gama media: Apple A9 (iPhone 6s-6s Plus). Gama alta: Apple A10 (iPhone 7-7 Plus) y Apple A11 (iPhone 8-8 Plus y iPhone X).Pasamos ahora a hablar de la memoria RAM y de nuevo tenemos una disparidad importante si hablamos de Android y de iOS. El primero es un "devorador" de RAM, pero podemos conseguir una experiencia de uso buena a partir de los 2 GB de memoria. Ese debería ser el mínimo de cualquier gama media, mientras que en iOS el mínimo aceptable es 1 GB de RAM, aunque es recomendable ir a por modelos de 2 GB para disfrutar de un mayor ciclo de vida.Gama baja: 2 GB en Android y 1 GB en iOS. Gama media: 3 GB en Android y 2 GB en iOS. Gama alta: 4 GB en Android y 2-3 GB en iOS.Capacidad de almacenamiento La capacidad de almacenamiento también ha experimentado también un desarrollo importante. En poco tiempo hemos pasado de tener smartphones tope de gama con 16 GB en su configuración base a ver como se estandarizaban los 64 GB.Esto es positivo para el usuario ya que la capacidad de almacenamiento determina todo lo que podremos instalar en el terminal, incluidas aplicaciones y juegos, y también vídeos, fotos y música. Es recomendable buscar un terminal que cumpla con los mínimos que os vamos a dar a continuación, y si cuenta con ranura para tarjeta microSD genial, ya que nos permitirá ampliar su capacidad de almacenamiento.Gama baja: 16 GB. Gama media: 32 GB. Gama alta: 64 GB. Si vamos a grabar vídeo en alta resolución es conveniente ir a por terminales de 256 GB.Cámaras y batería Este punto es complicado porque depende de las especificaciones concretas de cada terminal y del sistema operativo utilizado. Esto quiere decir que no podemos dar cifras concretas y "absolutas" como en los ejemplos anteriores y que debemos limitarnos a una explicación a modo de guía.Por lo que respecta a la cámara debemos tener en cuenta que los megapíxeles no definen su calidad, hay otras cosas importantes como el sensor y la apertura (cantidad de luz que puede absorber). Este valor se representa con el formato f/"número" (por ejemplo f/1.9). Cuanto más pequeño sea el número mejor, ya que significa que podrá capturar más luz y hacer mejores fotos en condiciones de baja iluminación ambiental.Antes de elegir os recomendamos ver comparativas en medios de confianza que muestren capturas hechas con los terminales que estáis considerando comprar, pero antes de cerrar este punto os dejamos un resumen con consejos útiles que os servirán de base:Las configuraciones de doble cámara permiten acceder a funciones avanzadas, pero no aseguran por sí solas una buena calidad de imagen. El estabilizador óptico de imagen es un importante valor añadido. Las configuraciones de triple cámara están empezando a llegar y permiten hacer zoom sin perder calidad de imagen. No son imprescindibles, pero aportan un valor real.En cuanto a la batería no existe como dijimos un valor real. Algunos dicen que lo ideal son 3.000 o 3.500 mAh pero es una generalización que debemos evitar. Por ejemplo el iPhone 8 Plus tiene una batería de 2.691 mAh y puedo decir que ofrece una buena autonomía, ya que llevo utilizándolo varios meses.Por ello os recomiendo de nuevo que optéis por buscar información precisa y pruebas de autonomía del smartphone o smartphones que os gustan y que no os dejéis llevar solamente por los números.Otras cosas a tener en cuenta en un smartphone Hemos visto los puntos más importantes hablando de los componentes que siempre están presentes en un smartphone, pero en este último punto nos vamos a centrar en tocar otras características que también deberían estar incluidas en un terminal.Estableceremos una división por gamas, ya que entendemos que el precio al final juega un papel determinante y que para reducir costes es normal que algunas no estén presentes en los modelos más económicos.Gama baja: ranura microSD, conectividad 4G LTE, WiFi AC y almacenamiento eMMC 5.1. Gama media: ranura microSD, conectividad 4G LTE, WiFi AC, almacenamiento UFS, resistencia al polvo y al agua y lector de huellas dactilares. Gama alta: ranura microSD, conectividad 4G LTE, WiFi AC, almacenamiento UFS 2.1, resistencia al polvo y al agua (IP67 o superior) y lector de huellas dactilares.Enlaces de interés: Guías MC.
5 comentarios0 shares
15/07/2018Isidro Ros
Chrome aumenta el uso de memoria RAM por culpa de Spectre ¿Cómo reducirlo?

Chrome aumenta el uso de memoria RAM por culpa de Spectre ¿Cómo reducirlo?

Mitigar la vulnerabilidad de procesadores, Spectre, ha causado un aumento de memoria RAM en Chrome que ingenieros de Google calculan entre un 10 y un 13%. Malas noticias para un navegador web que tiene muchas virtudes, pero que no brilla en consumo de recursos.Las vulnerabilidades críticas en procesadores siguen coleando y además de la problemática de seguridad también inciden en el apartado del rendimiento. Estas vulnerabilidades tienen que ver con la propia arquitectura de los chips. Los procesadores no separan por completo los procesos clave que tienen acceso al kernel del sistema operativo de aquellos con privilegios bajos y de poca confianza (como los de muchas aplicaciones), por lo que un atacante podría aprovechar esta función para que el procesador le anticipe datos que no debería gracias a la ejecución especulativa y conseguir cualquier dato del equipo en cuestión.De ahí que mitigar esta vulnerabilidad vía software implica necesariamente separar los procesos del usuario de la memoria del kernel y con ello variar el funcionamiento del procesador, que en el caso de Intel (y también los de otros fabricantes compatibles) gana rendimiento precisamente con un tipo de técnicas de elevación de privilegios. Por ello, la pérdida de rendimiento existe aunque varía mucho según los escenarios de uso.El parcheo para Meltdown y Spectre se ha ido produciendo en meses pasados y requiere actuación a todos los niveles, en el microcódigo de los mismos procesadores, en el sistema operativo y también en las aplicaciones.Más uso de memoria RAM en Chrome Google ha sido uno de los proveedores más activos para encontrar soluciones que mitiguen estas vulnerabilidades y ha implementado por defecto en la última versión de su navegador web, Chrome 67, una nueva función denominada Site Isolation con el objetivo de proteger el navegador contra los ataques de canal lateral de Spectre que usan las características de ejecución especulativa que hemos mencionado y que usan los procesadores para acceder a partes de la memoria que deben restringirse.Desafortunadamente, la mejora de la seguridad tiene como consecuencia el aumento de uso de memoria RAM en Chrome. "Site Isolation provoca que Chrome cree más procesos de renderizado, lo que implica compensaciones de rendimiento... Hay una sobrecarga total de memoria del 10-13 por ciento en las cargas de trabajo reales debido a la mayor cantidad de procesos", explica el ingeniero de software de Google, Charlie Reis, en una entrada en el blog de seguridad de Google donde detalla su funcionamiento.A partir de Chrome 67, Site Isolation se ha habilitado para el 99% de los usuarios de Windows, Mac, Linux y Chrome OS, reduciendo significativamente la amenaza planteada por Spectre. El grupo de seguridad de Google está trabajando para extender la función al Chrome para Android donde hay problemas conocidos adicionales y también para optimizar el comportamiento (reducir el consumo de recursos) de este sistema de seguridad que incide en el propio comportamiento del navegador.Y optimización es lo que ha ido realizando Google porque Chrome -el más tragón de memoria desde hace años- ha ido reduciendo su consumo, por ejemplo en Chrome 45 en un 10% y hasta un 50% desde Chrome 55. La mayor carga ahora llega sobrevenida ante la amenaza que suponen las vulnerabilidades en los procesadores y la necesidad de mejorar la seguridad ante ellas. Poco que criticar a Google, aunque puede suponer un problema en equipos básicos con 4 Gbytes o menos de memoria. Cómo reducir el uso de memoria RAM en Chrome Chrome es un desarrollo sobresaliente en casi todos sus apartados, incluyendo el de rendimiento. No por nada domina de forma amplísima la cuota de mercado de navegadores web. Sin embargo, hace tiempo que perdió el concepto de navegador mínimo convirtiéndose en una plataforma completa de aplicaciones.Ello se traduce en un aumento significativo de recursos, que se suma al gran uso de memoria RAM y CPU al ejecutar pestañas por separado, y con todo ello en un ávido drenador de batería cuando utilizamos un ordenador portátil. Abre el administrador de tareas y podrás comprobar lo que ocupa Chrome para funcionar a poco que tengas unas cuantas pestañas abiertas:La conversión en plataforma de aplicaciones de la que hablábamos permite seguir ejecutando aplicaciones en segundo plano permanentemente incluso al cerrar Google Chrome, aumentando el consumo de recursos. Lo verás activo en la barra de herramientas. Si no lo necesitas, accede a Configuración-Sistema y deshabilita la opción. También puedes revisar otros apartados:Elimina extensiones del navegador. Algunas son muy útiles pero son una de las características que más aumentan el consumo de recursos. Accede a Configuración-Extensiones y deshabilita o elimina las que no sean absolutamente necesarias. Elimina las páginas en segundo plano. Una página en background que se utiliza para permitir el acceso a documentos, hojas de cálculo, presentaciones o dibujos de Google Drive en modo sin conexión. Si no lo utilizas ve a la página de configuración de Google Drive y deshabilita la función. Selecciona la ejecución de plug-ins. Accede a Configuración-Privacidad-Configuración de contenido-Complementos y marca la opción permitirme decidir cuándo ejecutar contenido de plugins. Ello evitará que plugins de gran consumo como Adobe Flash se cargue automáticamente en segundo plano en todas las páginas. La función se denomina Click-to-Play y puede utilizarse en otros navegadores como Firefox o Internet Explorer. Selecciona el número de pestañas abiertas. Ya hemos comentado que la ejecución por Chrome de cada pestaña en un proceso separado obliga a gastar más recursos. Y muchos como verás en la imagen del administrador de tareas, llegando incluso a bloquear el equipo con hardware poco potente. Si quieres ahorrar RAM y CPU tendrás que limitar el número de pestañas abiertas.Es obvio que Chrome necesita una mayor optimización para reducir el consumo de recursos, aunque ello sea solo uno de los factores relevantes en un navegador y la seguridad, rendimiento, diseño, interfaz, estabilidad o soporte de extensiones, sea igual de importante para muchos usuarios que tienen al desarrollo de Google como navegador web principal.Más información Site Isolation en Chrome | Google Seguridad
7 comentarios0 shares
13/07/2018Juan Ranchal
Cinco juegos gratuitos para PC que no te debes perder este verano

Cinco juegos gratuitos para PC que no te debes perder este verano

Para muchos el verano es sinónimo de vacaciones, relax y descanso. Una época perfecta para combinar un poco de deporte y aventura con nuestras otras pasiones. Si te gustan los videojuegos tanto como a nosotros pero no quieres (o no puedes) gastar dinero para ampliar tu colección no te preocupes, existen muchos juegos gratuitos para PC que pueden proporcionarte semanas de diversión sin que tengas que gastar un céntimo.Sabemos que elegir puede ser difícil, así que hemos decidido hacer este artículo en el que hemos seleccionado cinco juegos gratuitos para PC que a nuestro juicio son imprescindibles y que realmente merecen esos ratos muertos en verano. Tened en cuenta que con este top cinco hemos recurrido a nuestro criterio personal, pero siempre hemos fijado un criterio básico y es optar por aquellos títulos que ofrecen una buena experiencia sin tener que gastar dinero en ellos.Como siempre podéis utilizar los comentarios para dejar vuestras propias recomendaciones y cualquier duda que os venga a la cabeza. Sin más preámbulos empezamos. 1-Fortnite Battle RoyaleSe ha convertido en el rey del género Battle Royale y no sólo es uno de los más jugados, sino también uno de los que más dinero está generando para aquellos que se dedican al streaming de videojuegos y a la creación de contenidos.Este juego está centrado en el modo multijugador que combina elementos de acción pura y dura (tipo arcade) con otros de construcción y recolección de recursos. Ofrece diversos modos de juego y se puede disfrutar de él sin tener que invertir dinero (no es un "pay to win").Adictivo, divertido y con unos requisitos bastante modestos. Podéis descargarlo aquí.RequisitosWindows 7 de 64 bits o Mac OS X Sierra. Procesador Core i3. 4 GB de RAM. GPU Intel HD 4000. 20 GB de espacio libre.2-WarframeEs uno de los juegos gratuitos para PC más populares de la historia, y por méritos propios. Este título apuesta por la acción en tercera persona con tintes claros de rol, acompañado de un componente multijugador que nos permite disfrutarlo con amigos.Lleva varios años en el mercado pero sigue ofreciendo una jugabilidad a prueba de bomba y un apartado técnico sobresaliente, gracias a las actualizaciones que ha ido recibiendo.Si todavía no lo has probado deberías darle una oportunidad, ya que ofrece una gran cantidad de contenidos y disfrutarás de muchas horas de diversión sin tener que preocuparte por tirar de micropagos. Estos existen, pero no son imprescindibles para pasarlo bien. Podéis descargarlo a través de Steam.RequisitosWindows XP SP3. Procesador Core 2 Duo o Athlon 64 X2 a 2,4 GHz. 2 GB de RAM. GeForce 8600 GT o Radeon HD 3600. 25 GB de espacio libre.3-Guild Wars 2A título personal es uno de los juegos a los que más horas he dedicado durante los últimos años. Lleva también mucho tiempo en el mercado, pero ha envejecido de maravilla gracias al excelente apartado gráfico que ha sabido mantener ArenaNet tirando de un motor gráfico personalizado que fue construido sobre la base del que utilizaron en el primer Guild Wars.Todo el contenido del juego base se puede disfrutar sin tener que gastar dinero, lo que significa que tenemos a nuestro alcance un gran mundo para explorar, muchas misiones y mazmorras que superar en compañía de nuestros amigos.ArenaNet mantiene algunas limitaciones en las cuentas gratuitas para evitar que puedan ser aprovechadas por las tiendas de objetos que venden en Internet para molestar a los jugadores, pero se puede disfrutar a la perfección y si os gusta podréis eliminar esas pequeñas limitaciones comprando cualquiera de las dos expansiones disponibles. Podéis descargarlo a través de su web oficial.RequisitosWindows XP SP3. Procesador Core 2 Duo o Athlon 64 X2 a 2,4 GHz. 4 GB de RAM. GeForce 8600 GT o Radeon HD 2600. 50 GB de espacio libre.4-League of LegendsConsiderado por muchos (junto con DOTA 2) como el rey del MOBA, un género que combina estrategia con tintes de rol y que nos pone en el papel de un campeón que elegimos antes de empezar la partida. Durante el desarrollo de la misma podemos conseguir oro y comprar objetos con los que mejorar a nuestro campeón, y también subirlo de nivel y mejorar sus habilidades.El objetivo en League of Legends es sencillo, destruir el Nexo del equipo rival. Para ello tenemos que jugar en equipo y destruir de forma gradual las defensas intermedias que nos separan del Nexos. Por el camino encontraremos a otros campeones a los que tendremos que hacer frente.Es un planteamiento sencillo pero muy adictivo, y lo mejor es que lo que prima es vuestra habilidad y la de vuestro equipo, ya que el juego se sustenta con micropagos puramente estéticos. Podéis descargarlo a través de este enlace.RequisitosWindows XP SP3. Procesador de doble núcleo. 2 GB de RAM. GeForce 8600 GT o Radeon HD 2600. 12 GB de espacio libre.5-Killer InstinctUna puesta al día de una de las franquicias de lucha más populares y conocidas del momento. Con la versión gratuita disfrutaremos de todo el contenido que trae la versión de pago, lo que significa que la única limitación importante está en los personajes disponibles.Su apartado técnico es sobresaliente y su jugabilidad es excelente, así que a pesar del tiempo que tiene se mantiene como uno de los mejores juegos de lucha que existen actualmente. A pesar de la limitación de selección de personajes podemos disfrutarlo sin tener que gastar dinero, ya que tendremos los mismos modos de juego y las mismas oportunidades que otros jugadores. Podemos descargarlo gratis a través de la Microsoft store.RequisitosWindows Windows 10. Procesador de cuatro núcleos a 2,4 GHz (Core 2 Quad, Phenom II o superior). 4 GB de RAM. GeForce GTX 460 o Radeon HD 5850. 48 GB de espacio libre.
6 comentarios0 shares
12/07/2018Isidro Ros
Windows 10 October 2018 Update, todas las novedades de Redstone 5

Windows 10 October 2018 Update, todas las novedades de Redstone 5

Microsoft acaba de publicar una nueva versión Redstone 5 en los anillos "rápido" y "skip ahead" del canal Insider. Se trata de la build 17713, una edición de desarrollo que desembocará en la versión final de su próximo sistema operativo que apunta a llamarse "Windows 10 October 2018 Update".Después de unos cuantos parcheos para solucionar los problemas, bloqueos y bugs que en buen número ha traído Windows 10 April 2018 Update, Microsoft afronta una nueva actualización con lanzamiento previsto para el próximo otoño. El nuevo modelo de “Windows-como-servicio” para Windows 10 facilita el desarrollo y el programa de prueba Insider, permite el testeo previo por miles de usuarios de las versiones beta.Aún así, las versiones finales siguen llegando con más errores de los deseables y no son pocos los que piden menos novedades a cambio de una mayor estabilidad. O de una gran actualización anual en vez de las semestrales actuales para tener más tiempo en el pulido de las mismas.Sea como fuere, Redstone 5 (Windows 10 October 2018 Update) está en marcha y es buen momento para hacer un repaso a las novedades previstas. Vamos con ellas no sin recalcar, que se trata de una versión beta destinada a pruebas y no adecuada para instalar en entornos productivos. Interfaz en Windows 10 October 2018 Update Microsoft continúa implementando conceptos Fluent Desing. La apuesta por el nuevo lenguaje de diseño que Microsoft ha creado para mejorar y unificar el aspecto del sistema operativo y las aplicaciones dedicadas al sistema (originalmente las universales UWP como plataforma común para todos los dispositivos que ejecuten Windows 10) es imparable y terminará completándose gradualmente en las próximas versiones de Windows 10.Una de las grandes novedades para Redstone 5 es la aplicación de este tipo de diseño también a las aplicaciones Win32, al menos las de Microsoft. Otros cambios en este apartado son:Efectos de transparencia para la vista de tareas. Vista previa en el menú de inicio al realizar búsquedas. La barra del navegador Edge ofrecen un nuevo efecto de profundidad. Redstone 5 permitirá aumentar el tamaño del texto en todo el sistema, incluido el menú Inicio, el Explorador de archivos o la herramienta de Configuración. Tema oscuro para el explorador de archivos. Se habilita automáticamente si activas el tema oscuro en Configuración> Personalización> Colores. Bordes ocultos. Microsoft está minimizando los límites de las ventanas. En lugar de colores, los bordes podrán ser grises y tendrán efecto de desvanecimiento. Cuando se abre el Centro de actividades las notificaciones tienen ahora un efecto de atenuación. Nuevo diseño en la línea del tiempo con fondo borroso. La solución de seguridad Windows Defender ahora cuenta con "diseño fluido".Mejoras en Microsoft Edge El navegador web exclusivo para Windows 10 es uno de los componentes fijos de mejora en cada actualización. Y es urgente porque Microsoft ha perdido la batalla de navegadores web. Para Redstone 5, ha rediseñado el menú y ahora ofrece comandos comunes como "Nueva pestaña" y botones más grandes de "Nueva ventana". La nueva página de Configuración se divide en categorías para que sea más fácil encontrar configuraciones específicas.Edge también contará con una opción de "Reproducción automática de medios" gestionable en Configuración> Avanzado, desde donde se podrá controlar qué sitios web pueden reproducir vídeos automáticamente y cómo, con o sin sonido.La interfaz del navegador Edge también ofrece otras funciones útiles. Ahora puede ver sus mejores sitios en la "lista de salto" que aparece cuando haces clic con el botón derecho en el acceso directo de Edge en la barra de tareas o en el menú de Inicio. En la vista "Pestañas que has apartado", accesible haciendo clic en el botón en la esquina superior izquierda de Edge, ahora puedes asignar etiquetas a grupos de pestañas guardadas. En el panel de descargas, puedes hacer clic con el botón derecho en las descargas para buscar opciones como "Mostrar en la carpeta" y "Copiar enlace".Importante en el apartado de la seguridad será el soporte de autenticación web que permitirá el uso de claves de seguridad FIDO U2F y otro hardware de autenticación al iniciar sesiones en sitios web. Quizá un día nos libremos de las contraseñas. Otro de los cambios en la interfaz es que cuando utilizas el navegador como visor de PDF predeterminado, también verás un nuevo icono para archivos PDF en el Explorador de archivos. Como curiosidad, señalar que esta versión de Edge luce un logotipo "Beta" para señalar que se trata de una edición de prueba. Mejoras en la banda ancha móvil A medida que van llegando al mercado más equipos profesionales con soporte para 4G y Microsoft pretende extenderlos a consumo con los dispositivos "siempre conectados", Microsoft está haciendo la transición a un nuevo marco de controlador "Net Adapter" en Windows. Esto mejorará la fiabilidad de la conexión en PCs que usen banda ancha móvil (LTE), ya sea usando una tarjeta SIM o un módem USB.Este nuevo controlador es el predeterminado a partir de la compilación 17677 y promete mejorar la forma en que Windows maneja las conexiones a Internet. La función de conexión a datos móviles se puede gestionar en la pantalla de Configuración> Red e Internet. El uso de datos ahora también muestra la cantidad gastada en roaming y se mejora la gestión del límite de los datos, las restricciones a los datos de fondo, el uso de datos en Wi-Fi, las conexiones Ethernet cableadas y las mencionadas de datos móviles. Historial y sincronización del portapapeles Windows 10 October 2018 Update aumentará la potencia del portapapeles con un historial al que se podrá acceder  presionando las teclas de acceso rápido "Windows + V". Opcionalmente, se puede sincronizar este historial del portapapeles entre sus dispositivos, proporcionándole un portapapeles que se sincroniza entre sus PC. También puede sincronizar manualmente haciendo clic en un ícono en la ventana emergente del portapapeles, evitando que Windows sincronice datos potencialmente confidenciales como contraseñas y números de tarjetas de crédito.En el futuro, Microsoft agregará soporte para el portapapeles de la nube a su teclado SwiftKey para Android, iPhone y iPad. Podrá copiar y pegar entre su teléfono o tableta y su PC con Windows. Windows Security Ya hemos perdido la cuenta de las veces que Microsoft ha renombrado su solución de seguridad nativa para Windows 10. Desde el actual “Centro de Seguridad de Windows Defender” Microsoft renombrará la solución en Redstone 5 a "Seguridad de Windows".Aparte del nombre, vemos novedades como la gestión de las "Amenazas actuales" que ahora muestra todas las amenazas potenciales que necesitan algún tipo de acción del usuario. También se podrán "Bloquear comportamientos sospechosos" que ayudará al proteger el PC contra exploits con el soporte del Windows Defender Exploit Guard.Otra de las mejoras llega de la gestión y acceso de terceras aplicaciones a las carpetas controladas para proteger tus archivos del ransomware. También hay una nueva página en Seguridad de Windows> Configuración> Administrar proveedores, que nos mostrará otras aplicaciones antivirus, antimalware, cortafuegos y en general de seguridad que tengamos instalado en el PC. Mejoras en la Barra de Juego La Game Bar fue rediseñada en Windows 10 April 2018 Update y en Redstone 5 añadirá algunas características nuevas y útiles como los controles de audio integrados que permiten elegir el dispositivo de salida de audio predeterminado o controlar el volumen de otras aplicaciones en el sistema.También ofrece funciones de visualización del rendimiento, para que puedas ver los cuadros por segundo (FPS) de un juego, el uso de la CPU, el uso de la VRAM de la GPU y el uso de la memoria RAM del sistema. También hay un botón "Dedicar recursos" en la barra de juegos. Esto permite una nueva opción de modo de juego que mejorará el rendimiento del juego en PCs con múltiples tareas en ejecución en segundo plano. No es la panacea... Las mejoras son mínimas o nulas. Aplicaciones "progresivas" Microsoft también va a mejorar una de las novedades de Windows 10 Spring Creators Update, el soporte para las denominadas apps progresivas (PWAs) que estarán disponibles en la tienda oficial a finales de año. Es básicamente un nuevo estándar para aplicaciones web que se comportan como aplicaciones de escritorio. Microsoft indexará los PWA y los ofrecerá a través de la aplicación Microsoft Store, lo que le permitirá instalarlos como cualquier otra aplicación de Windows 10. En el futuro, también podremos instalarlas directamente desde Microsoft Edge.Cada aplicación tiene su propia ventana y acceso directo a la barra de tareas, puede ejecutarse sin conexión y puede enviar notificaciones. Google, Mozilla y Microsoft ya las soportan e incluso Apple está añadiendo algo de apoyo a esta tecnología. Visto que las apps “universales” UWP no son capaces de atraer a desarrolladores, las apps progresivas pueden ser una solución para tener en Windows 10 software multiplataforma de calidad. En Windows 10 October 2018 Update podremos ver dos modos de pantalla, la completa y una mínima de ventana con controles de navegación. Más "guiños" a Linux El “amor” por Linux y en general por el Open Source que hemos ido viendo desde la llegada al frente del ejecutivo de Satya Nadella sigue en marcha y Windows 10 October 2018 Update contará con nuevos "guiños" en este sentido.Si usas Bash en Windows, la nueva versión tendrá una característica que mucha gente ha estado pidiendo: atajos de teclado para copiar y pegar. Ahora puede hacer clic con el botón derecho en la barra de título de la ventana de la consola y seleccionar "Propiedades" para buscar la opción que habilite Ctrl + Shift + C y Ctrl + Shift + V para copiar y pegar. Estos atajos de teclado están deshabilitados por defecto por razones de compatibilidad.Otra de las novedades es que el bloc de notas admitirá caracteres de final de línea (EOL) de estilo UNIX . Específicamente, admitirá finales de línea de UNIX / Linux (LF) y terminaciones Mac (CR). Ello significa que un archivo de texto creado en Linux o Mac podrá abrirse y editarse correctamente en el Bloc de notas de Windows.Hay más, como la posibilidad de lanzar un Shell de Linux desde el menú contextual del explorador de archivos o la capacidad de definir las políticas del cortafuegos del sistema para cualquier proceso del subsistema Windows para Linux. Administrador de tareas El Administrador de tareas de Windows ahora incluye dos columnas nuevas en la pestaña de procesos principales. Estas columnas están diseñadas para ayudar al usuario a entender qué aplicaciones y servicios de su sistema consumen más energía. Tienen en cuenta la actividad de uso de CPU, GPU y almacenamiento para estimar la cantidad de energía que usa cada proceso. Una herramienta de gestión muy útil para profesionales o usuarios medios-avanzados que quieran controlar a fondo el funcionamiento de su equipo o resolver algunos problemas que se derivan de su uso. Fuentes para todos Versiones anteriores de Windows solo permiten instalar fuentes a los usuarios con privilegios administrativos, y esas fuentes se instalan para todos los usuarios del sistema. Windows 10 October 2018 Update mejora esta gestión. Haciendo clic en el botón derecho en un archivo de fuente en el Explorador de archivos, se puede seleccionar para instalar fuentes para una sola cuenta de usuario o "para todos". Solo esta última opción requiere permisos de administración. Captura de pantalla El nuevo Windows 10 tendrá una nueva herramienta de captura de pantalla denominada Screen Sketch. Como las aplicaciones de terceros, podremos tomar una captura de toda la pantalla, de una ventana o de una sección de la misma recortada. Una vez tomada una captura, Sketch permitirá dibujar sobre ella y agregar anotaciones, incluidas flechas y resaltados.Esta herramienta de recorte se habilita con las teclas rápidas "Windows + Shift + S". También se podrá configurar en la página de configuración de "Accesibilidad" para que parezca cuando presionemos la tecla Imprimir pantalla del teclado. La actual herramienta de recorte Snipping Tool será eliminada en próximas versiones de Windows 10. Skype para Windows La aplicación de mensajería recibirá una gran actualización en Windows 10 October 2018 Update, incluyendo temas personalizables, un nuevo diseño para los contactos y la capacidad de personalizar las llamadas en grupo arrastrando las personas que quieres ver en la pantalla. También mejora la opción de compartir la pantalla durante las llamadas. SwiftKey llega a Windows 10 Microsoft compró el teclado SwiftKey en 2016 y está disponible para dispositivos móviles Android, iPhones e iPads. Con Windows 10 October 2018 Update llega al escritorio para alimentar el teclado virtual. Estará disponible en varios idiomas (incluyendo español) y "proporciona autocorrecciones y predicciones más precisas al aprender tu estilo de escritura", comentan. También ofrece compatibilidad con deslizamiento por tipo, lo que permite pasar de una letra a otra deslizando el dedo en lugar de tocar cada una de ellas. Mail ignora el navegador predeterminado No todas las novedades serán bienvenidas. Otro movimiento agresivo de Microsoft para favorecer sus propias aplicaciones y en este caso en su navegador es "un cambio" por el que la aplicación de correo abre enlaces en Edge obviando que tengas puesto como navegador predeterminado otros como Chrome o Firefox.Y no solo el navegador. Por ejemplo, los enlaces de la función de búsqueda del menú Inicio se abren siempre en Microsoft Edge. Puede usar software de terceros para engañar a Windows y abrir Chrome u otro navegador, pero esto de "obligar" al usuario no es buen síntoma.  Windows Sets ¿Retrasado? La posibilidad de usar pestañas (como en un navegador web) en las aplicaciones de Windows, es una de las características que se esperaban para Windows 10 October 2018 Update. En las últimas compilaciones del sistema ha desaparecido y no tenemos claro si Microsoft la ha retrasado.En todo caso, apúntala para el futuro porque es muy interesante y apunta a poder usarse tanto con aplicaciones del sistema como externas agrupadas en "conjuntos" o Sets. Por ejemplo, podremos tener una ventana que contenga un documento de Microsoft Word, una página web de Microsoft Edge y una pestaña del Explorador de archivos. Podemos arrastrar y soltar estas pestañas entre ventanas y contaremos con atajos de teclado como Ctrl + Windows + Tab para cambiar entre ellas.Las aplicaciones de escritorio que tienen sus propias barras de título personalizadas (Google Chrome, Mozilla Firefox, iTunes, Steam...) no serán compatibles con Sets. Más novedades en Windows 10 October 2018 Update Como anteriores versiones de Windows 10, la próxima actualización no supondrá ninguna revolución, pero sí ofrecerá un montón de toques aquí y allá como las que hemos visto arriba y otro montón más como:Niveles de batería Bluetooth en la Configuración. Podrán verse los porcentajes de la batería Bluetooth en la pantalla Configuración> Dispositivos> Bluetooth. Solo funciona con dispositivos que admitan esta característica, como el lápiz óptico Surface Pen. El sistema emitirá una notificación cuando uno de estos dispositivos tenga poca batería. Extracción segura de GPUs externas. Eliminación segura de las gráficas externas de las gráficas dedicadas externas conectadas de la misma forma que hacemos con un USB. Notificaciones de privacidad. Si la configuración de privacidad bloquea el acceso a un componente como un micrófono en una aplicación, verás una notificación emergente que lo informará. Ajuste de video según la iluminación. Cuando esté habilitado, Windows 10 usará el sensor de brillo de tu dispositivo para ajustar automáticamente la reproducción de video y hacerlo más visible en función de la iluminación que lo rodea. Mejoras en el Sensor de almacenamiento. Windows podrá ahora eliminar automáticamente los archivos bajo demanda de OneDrive que no hayas abierto en su momento para liberar espacio. Compatibilidad HEIF. Soporte para el nuevo formato de imagen creado por el MPEG Group y que está impulsando Apple para reemplazar a JPG. Typing Insights. Windows usará inteligencia artificial y aprendizaje automático (ML) para ayudar a completar automáticamente palabras y corregir la ortografía, por ejemplo, al escribir con el teclado táctil. Instalación de idiomas. Los paquetes de idioma de la tienda de Microsoft ahora se pueden instalar desde la herramienta de Configuración del sistema. Ajustes de sonido. Traslado de algunos componentes del panel de control a la herramienta de Configuración.Hay mucho, mucho más en este Redstone 5 que te iremos comentando a medida que avance el desarrollo. Las previsiones son de lanzamiento de la versión final en octubre bajo la denominación. Windows 10 October 2018 Update.
15 comentarios0 shares
12/07/2018Juan Ranchal
¿Cómo funciona internamente una SSD?

¿Cómo funciona internamente una SSD?

Sea comprando una computadora nueva o actualizando una existente, el componente clave del apartado del almacenamiento de datos es SSD. Sus ventajas frente a un disco duro tradicional son amplias y conocidas, especialmente en el apartado de rendimiento. De hecho, un cambio de HDD a SSD es una de las mejores actualizaciones que puedes acometer en tu PC.Son múltiples los artículos que le hemos dedicado a las unidades de estado sólido porque los lanzamientos de nuevos modelos se producen a un ritmo casi semanal. Así, además de la guía de compra que mantenemos actualizada, te hemos ofrecido artículos como un caso de uso para decir adiós a los discos duros; cómo realizar el cambio de un disco duro a una SSD en un portátil; el montaje de un SSD en un PC manteniendo el disco duro o el dedicado a mover Windows desde un disco duro a SSD sin perder datos. Hoy vamos a ir un poco más allá para ver cómo funciona técnicamente una SSD. Computadoras y memorias Para comprender cómo funcionan las SSD y por qué son tan útiles, conviene entender cómo funciona la arquitectura de la memoria de una computadora y cada una de sus partes: la caché, la memoria RAM y la unidad de almacenamiento masivo.La memoria caché es la unidad de memoria más interna. Las rutas eléctricas hacia la memoria caché son las más cortas, lo que hace que el acceso a los datos sea casi instantáneo. Sin embargo, la memoria caché es muy pequeña, por lo que sus datos se sobrescriben constantemente.La RAM es el punto intermedio. Una memoria de acceso aleatorio donde la computadora almacena datos relacionados con los programas y procesos que se ejecutan activamente. El acceso a la memoria RAM es ligeramente más lenta que el acceso a la memoria caché.La unidad de almacenamiento es donde se almacenan todo el resto de datos que necesitan persistencia y en ella se almacenan los datos del sistema operativo, aplicaciones, juegos, archivos de configuración y todos los ficheros de usuario, documentos, vídeo o música.Conviene saber que hay una gran diferencia de rendimiento entre las tres. Mientras que la memoria caché y la RAM operan a velocidades de nanosegundos, una unidad de disco duro tradicional funciona a velocidades de milisegundos. Como resultado, el sistema de almacenamiento ha sido un gran cuello de botella para el rendimiento de todo el PC.No importa cuán rápido sea el resto de componentes. Una computadora solo puede cargar y guardar datos tan rápido como puede manejarlos el disco duro. Y aquí es donde entran las SSD, mucho más rápidas, lo que reduce significativamente el tiempo de carga de programas y procesos, consiguiendo que tu computadora se sienta mucho más rápida. ¿Cómo funciona una SSD? Las SSD o "unidades de estado sólido" tienen el mismo propósito que un disco duro: almacenar datos y archivos para uso a largo plazo. La diferencia es que las SSD modernas (desde 2010) usan un tipo de memoria flash (asimilables a las utilizadas en la RAM) pero a diferencia de ellas están basada en puertas NAND que no borran los datos cada vez que se apaga la computadora.Los datos en una SSD persisten incluso cuando no tiene energía. Al ser memorias no volátiles, no requieren ningún tipo de alimentación constante ni pilas para no perder los datos almacenados, incluso en apagones repentinos.Si desarmas un disco duro típico, verá una pila de placas magnéticas, platos giratorios con una aguja de lectura como la de un tocadiscos de vinilo. Antes de que la aguja pueda leer o escribir datos, las placas deben girar alrededor de la ubicación correcta.La estructura de una SSD cambia por completo. No tienen partes mecánicas ni móviles, usando un sistema de celdas eléctricas para enviar y recibir datos rápidamente. Estas cuadrículas están separadas en secciones llamadas "páginas" y estas páginas son donde se almacenan los datos. Las páginas se agrupan para formar "bloques".Partes principales de una SSD ¿Por qué es necesario saber esto? Porque los SSD solo puede escribir en páginas vacías de un bloque. En los discos duros, los datos se pueden escribir en cualquier ubicación en cualquier momento, y eso significa que los datos se pueden sobrescribir fácilmente. Los SSD no pueden sobrescribir directamente los datos en páginas individuales. Solo pueden escribir datos en páginas vacías de un bloque.Entonces, ¿cómo manejan los SSD la eliminación de datos? Cuando suficientes páginas en un bloque se marcan como no utilizadas, la SSD confía a la memoria caché todos los datos de un bloque, los borra y luego vuelve a enviar los datos de la memoria dejando en blanco las páginas no utilizadas. El borrado de bloques no significa que los datos desaparezcan como hemos visto. No todo son ventajas en SSD Un SSD completamente nuevo está cargado completamente de bloques con páginas en blanco. Cuando recibe datos nuevos en la SSD se escriben a velocidades vertiginosas. Sin embargo, a medida que se escriben más y más datos, las páginas en blanco se agotan y la unidad se queda con páginas aleatorias sin usar diseminadas por todos los bloques.Como consecuencia de lo anterior, uno de los inconvenientes teóricos es que la memoria flash solo puede mantener un número finito de escrituras antes de finalizar su vida útil. Cuando se usa una SSD, las cargas eléctricas dentro de cada una de sus celdas de datos deben reiniciarse periódicamente. Desafortunadamente, la resistencia eléctrica de cada celda aumenta ligeramente con cada restablecimiento, lo que aumenta el voltaje necesario para escribir en esa celda. Eventualmente, el voltaje requerido llega a ser tan alto que la celda particular se vuelve imposible de escribir. ¿Cuánto dura una SSD? Esto no quiere decir que una SSD obligatoriamente dure menos que un disco duro. Aunque los bloques de memoria en un SSD tienen un número limitado de operaciones de escritura, las nuevas generaciones han mejorado muchísimo en fiabilidad. Todas las SSD incluyen células de memoria adicionales libres para cuando las otras fallen no perder capacidad, reasignando sectores dañados.Pruebas de resistencia han confirmado este aumento de fiabilidad con algunas series de unidades sobreviviendo después de soportar una prueba masiva de escritura por encima de los 2 petabytes. Una cantidad de datos enorme que un usuario en condiciones reales (normales de uso) tardaría decenas de años en completar.En las últimas generaciones de SSD, los fabricantes están apostando por las memorias flash NAND TLC, triple nivel por celda. Esta tecnología aumenta la densidad de almacenamiento y rebaja costes, pero reduce la resistencia de formatos anteriores como MLC y especialmente SLC, Single-Layer Cell que solo almacena un bit por celda y que ya no verás en el mercado de consumo.Los fabricantes ofrecen un mínimo de tres años de garantía y en las nuevas generaciones estamos viendo 5 años de garantía en unidades de consumo y hasta 10 años en el mercado profesional. A nivel de usuario hay poco de lo que preocuparse a nivel de resistencia, pero sí queríamos que conocieras un poco más el funcionamiento de estas unidades de estado sólido que se están convirtiendo en el estándar del mercado del almacenamiento.
7 comentarios0 shares
09/07/2018Juan Ranchal
Guía: Cómo mejorar el rendimiento de tu portátil en juegos sin gastar dinero

Guía: Cómo mejorar el rendimiento de tu portátil en juegos sin gastar dinero

Mejorar el rendimiento de un ordenador portátil sin tener que gastar dinero puede parecer complicado, pero la verdad es que tenemos muchas opciones y algunas de ellas son tan fáciles de aplicar que incluso los usuarios menos expertos podrán aprovecharlas sin problema.Si eres de los que utiliza el portátil para jugar y está intentando estirar al máximo su vida útil para alargar el ciclo de renovación esta guía te interesa, ya que os vamos a ofrecer una serie de consejos que os ayudarán a mejorar el rendimiento de vuestro portátil.Vamos a empezar con los consejos más sencillos que sólo implican hacer algunos ajustes y cambios simples a nivel de sistema operativo, y seguiremos con otros que requieren un poco más de esfuerzo y que pueden implicar un cierto riesgo si no se ejecutan correctamente.Empezamos, si tenéis cualquier duda podéis dejarla en los comentarios.Consejos básicos y seguros para mejorar el rendimiento En esta categoría agrupamos aquellos pasos que no implican ningún tipo de riesgo y que pueden ayudarnos a mejorar el rendimiento de nuestro portátil en juegos. Es importante tener en cuenta que si los aplicamos de forma conjunta los resultados pueden ser bastante buenos, pero si nuestro equipo no cumple al menos con los requisitos mínimos del juego no debemos esperar ningún milagro.1-Crea un plan de energía personalizado para juegosLa batería y la autonomía son dos piezas clave que afectan no sólo al tiempo que podemos utilizar un portátil sin tener que conectarlo a un enchufe, sino que además pueden tener un gran impacto en el rendimiento del equipo.Si utilizamos un plan de energía de bajo consumo o uno de consumo equilibrado estaremos limitando el rendimiento de los componentes (CPU y GPU) incluida, y esto se notará en el rendimiento que tendremos al utilizar un juego.Utilizar un plan de energía personalizado que priorice el rendimiento sobre el consumo (máximo rendimiento) puede ayudarnos a mejorar el rendimiento del portátil en juegos. A continuación os damos los pasos necesarios para crear un plan personalizado con Windows 10:En la búsqueda de Cortada introducimos “Configuración”. Entramos y seguimos la ruta “Sistema > Inicio/Apagado y Suspensión”. En la parte de la derecha seleccionamos el enlace que dice “Configuración Adicional de Energía”. Una vez dentro nos vamos a la parte izquierda y seleccionamos la opción “Crear un Plan de Energía”. Elegimos el modelo de inicio entre las opciones que nos aparecen (“Equilibrado”, “Economizador” o “Alto Rendimiento”) e introducimos un nombre. Hacemos clic en siguiente y ya podremos entrar de lleno en la configuración de una serie de opciones diversas, entre las que se incluyen el apagado de la pantalla y el inicio de la suspensión. Si queremos cambiar los ajustes avanzados del plan de energía que hemos creado sólo tenemos que entrar en “Opciones de Energía” > “Cambiar Configuración del Plan” > “Cambiar la Configuración Avanzada de Energía”.2-Haz un arranque limpio del sistemaComo su propio nombre indica realiza un arranque del sistema reduciendo las aplicaciones y programas en segundo plano. Esto nos ayuda a reducir el consumo de recursos y puede ayudarnos a recuperar algo de memoria RAM y de rendimiento a nivel CPU por esa menor carga que soporta el sistema al reducirse las aplicaciones "durmientes".Los arranques limpios pueden ofrecer una mejora de rendimiento notable sobre todo en casos en los que tenemos la cantidad de memoria RAM justa que requiere como mínimo un juego para funcionar.Para hacer un arranque limpio en Windows 10 debemos seguir los siguientes pasos:Entramos en la búsqueda de Cortana e introducimos "msconfig". Elegimos el resultado "Configuración del Sistema". En la pestaña "Servicios" del cuadro de diálogo "Configuración del Sistema" activamos la opción "Ocultar todos los servicios de Microsoft". A continuación continuación hacemos clic en "Deshabilitar Todo". Ahora en la pestaña "Inicio" del cuadro de diálogo "Configuración del Sistema" hacemos clic en "Abrir el Administrador de Tareas". En la pestaña "Inicio" del "Administrador de Tareas" seleccionamos todos los elemento de inicio y hacemos clic en "Desactivar". Cerramos el "Administrador de Tareas" y volvemos a la pestaña "Inicio" del cuadro de diálogo "Configuración del Sistema", hacemos clic en "Aceptar" y reiniciamos el sistema.3-Haz un análisis completo del sistema y resuelve erroresEs un paso simple pero puede ser muy importante. Es recomendable hacer análisis tanto de malware como del estado del sistema, en los que deberemos monitorizar las temperaturas de trabajo para identificar posibles problemas de pérdidas de rendimiento por exceso de calor y también el estado de los componentes.La desfragmentación de los discos duros que utilicemos puede ayudar a mejorar el rendimiento en general. No nos dará más fotogramas por segundo en juegos, pero puede ser útil para reducir los tiempos de carga y mejorar la respuesta general del sistema. Windows 10 cuenta con una herramienta integrada muy fácil de utilizar:Para utilizarla sólo debemos introducir "Desfragmentar y optimizar unidades" en el cuadro de búsqueda de Cortana y seleccionar el primer resultado. Nos aparecerá una ventana con diferentes opciones entre las que podremos elegir si llevar a cabo una optimización manual o fijar un programa de optimización periódico que se llevará a cabo de forma automática.Es muy sencillo de utilizar y podéis cambiar la configuración en cualquier momento, así que no dudéis en aprovecharlo de la manera que os resulte más cómodo.4-Mantén el equipo actualizado y en buen estadoEste punto tiene dos grandes claves. Por un lado hablamos de las actualizaciones y nos referimos a ellas en sentido amplio. Aunque es cierto que el hardware relativamente antiguo ya no se beneficia en gran medida de las actualizaciones de software éstas pueden traer pequeñas correcciones de errores o introducir mejoras a nivel de compatibilidad que nos acaben beneficiando de una forma u otra.Por otro lado las actualizaciones a nivel de sistema operativo ofrecen una capa extra de protección y contribuyen a mantener el sistema seguro y a reducir el riesgo de sufrir ataques e infecciones por malware, dos elementos que pueden acabar teniendo un impacto negativo en el rendimiento.Finalmente hemos hablado de mantener el equipo en buen estado, y con esto nos referimos al sistema operativo. Si hemos sufrido infecciones de malware, hemos trasteado con el sistema de una manera inapropiada y hemos hecho numerosos cambios es posible que el sistema operativo se haya visto afectado y que no rinda como es debido.En esos casos hacer una instalación limpia del sistema operativo es la mejor opción, ya que nos permitirá volver a disfrutar de esa mejora de rendimiento que sólo se consigue con un sistema operativo fresco y en buen estado.Consejos avanzados para mejorar el rendimiento En este punto entran aquellos que pueden suponer un riesgo para el equipo, pero que pueden tener también un gran impacto y mejorar el rendimiento de forma considerable. Si optas por ellos debes ser consciente del riesgo que implican, y de que cuando hablamos de ordenadores portátiles lo mejor es dejarlos como último recurso.1-Haz overclock a los componentesCuando hablamos de un PC de sobremesa el overclock es una opción menos peligrosa por las diferencias de tamaño y de disipación térmica que existen. En un portátil se utilizan sistemas de refrigeración limitados y no siempre es posible subir las frecuencias de trabajo de todos los componentes.El overclock implica como dijimos subir la velocidad de trabajo (MHz) de componentes como la CPU (procesador) y la GPU (tarjeta gráfica). En algunos casos puede ayudarnos a arañar unos pocos fotogramas por segundo y a conseguir una media más estable, pero con ello elevaremos el consumo de los componentes y las temperaturas de trabajo.Si no nos mantenemos en niveles seguros esto puede acabar afectando a la vida útil de los componentes y del portátil, así que lo mejor cuando hacemos overclock es ir siempre poco a poco: hacemos un pequeño aumento, comprobamos estabilidad y temperaturas. Si todo funciona y está dentro de los valores normales podemos repetir la operación hasta que tengamos problemas de inestabilidad o temperaturas anormales (demasiado altas).2-Haz una limpieza internaComo dijimos en el apartado anterior los portátiles tienen limitaciones claras en lo que respecta a la refrigeración interna por cuestiones de espacio. A esto debemos unir que con el paso del tiempo y el uso suelen acumular polvo y suciedad en su interior, algo que puede acabar siendo problemático.Un exceso de suciedad puede reducir la efectividad del sistema de disipación, disparar las temperaturas de trabajo y reducir el rendimiento de componentes tan básicos como la CPU y la GPU. Abrir el portátil y realizar una limpieza exhaustiva puede ser tan beneficioso para el equipo que en algunos casos equivale casi a darle una segunda vida.Es evidente no todos los portátiles se pueden abrir y que esto implica un riesgo evidente, así que tenedlo presente antes de intentarlo. Una vez que abrimos el equipo podemos proceder a cambiar la pasta térmica de la CPU y la GPU, ya que también puede marcar una diferencia importante si nuestro equipo tiene más de cinco años.Enlaces de interés: Guías MC.
1 comentario0 shares
08/07/2018Isidro Ros
5 alternativas similares a Google Chrome

5 alternativas similares a Google Chrome

Google Chrome es el navegador web más conocido y utilizado del mercado. Obviamente, el tener detrás a una de las compañías con más presencia en Internet ayuda bastante, y eso sin contar que los instaladores de muchas aplicaciones gratuitas para Windows sugieren su instalación, aunque el usuario casi siempre puede desactivar dicha opción.La clara posición dominante de Chrome (aunque afortunadamente con la competencia y el mercado abiertos) puede dar la impresión de que es una aplicación invencible en su sector, sin embargo, lejos de la realidad, se trata de un producto para el que hay muchísimas alternativas que funcionan de forma similar, con la salvedad del DRM, Flash y ciertos componentes pertenecientes a la propia Google. Chromium: el “padre” de Google Chrome Chromium es sobre todo un navegador web de código abierto creado y mantenido a iniciativa de Google, aunque existen otras partes y una comunidad de voluntarios que también contribuyen al proyecto. Sus objetivos son crear una aplicación que se adapte al hardware moderno; ofrecer una interfaz minimalista, intuitiva y fácil de usar para todos los perfiles de usuario; y ser una tecnología que vaya más allá de la navegación web.El navegador web Chromium es bastante conocido sobre todo entre los usuarios de Linux, que recurren a él como una “alternativa software libre” de Chrome gracias a la no presencia de los componentes privativos. Las interfaces de Chrome y Chromium son idénticas, y es que el primero no es más que una reimplementación del segundo, ofreciendo ambos un buen soporte para los servicios de Google.El hecho de que Chromium sea software libre ha permitido usarlo más allá de la navegación, de hecho, el framework para aplicaciones web Electron lo utiliza para su frontend (la parte que ve el usuario), mientras que para el backend (la parte que no ve el usuario) emplea Node.js. En la actualidad aplicaciones como Skype, Slack, GitHub Desktop y los editores de código Visual Studio Code y Atom están construidos con Electron, por lo que Chromium se ha consolidado como una especie de base tecnológica, yendo más allá de solo la navegación web.Por otro lado, el hecho de ser software libre permite bifurcarlo y crear otros productos basados en él. Eso es precisamente lo que expondremos en este artículo: navegadores alternativos basados en Chromium. El hecho de que muchas de sus partes estén publicadas bajo licencias de código abierto permisivas permite volver privativos muchos de sus componentes en los productos derivados. Opera Opera Software tomó hace años la decisión de cambiar su propio motor de renderizado, Presto, por Chromium, una transición que se materializó en el lanzamiento de Opera 15.Desde entonces Opera se beneficia del poder del motor de renderizado Blink y las herramientas de desarrolladores de Chormium/Chrome, aunque con una interfaz de usuario bastante cambiada con respecto al proyecto original y apoyándose en sus propios servicios y su propia tienda de extensiones en lugar de usar los de Google. Otra característica a destacar es el servicio de VPN gratuito, al que se puede acceder mediante la navegación privada.Algunos usuarios dicen que incluye ciertas optimizaciones frente a Chrome, aunque a niveles generales ofrece una experiencia muy similar. Tiene soporte para Windows, Linux, Mac y Android.Vivaldi Browser El salto de Opera a Chromium fue dramático para muchos usuarios, ya que se perdieron casi todas las características propias que estaban presentes cuando se usaba Presto. Recogiendo estas críticas, surgió Vivaldi de la mano de un exCEO de Opera Software con el fin de recuperar todas aquellas posibilidades, aunque sin renunciar a los avances a nivel de renderizado y herramientas para desarrolladores aportados por Chromium.Vivaldi fue presentado en su día como un navegador web para “usuarios avanzados” (o power users). Su intención es recuperar algunas de las características más interesantes de Opera Presto, como el cliente de correo electrónico integrado. También permite la creación de notas y ofrece una potente interfaz para el historial de navegación, mientras que para las extensiones se apoya en la Chrome Web Store.Otras posibilidades interesantes ya soportadas por Vivaldi son la de realizar pantallazos a las páginas web y la hibernación de pestaña, que permite liberar recursos mediante la hibernación de pestañas que no está activas.Sin tener la repercusión mediática de Opera, Vivaldi se ha consolidado como uno de los navegadores web alternativos más sólidos, aunque para los que estén acostumbrados a la interfaz de Chrome posiblemente les parezca una aplicación un tanto sobrecargada. Actualmente soporta Windows, Linux y Mac.Brave Browser Hace unos años el debate sobre los bloqueadores de publicidad estaba en boca de todos, y es que su uso, o más bien el abuso de su utilización, ha terminado por mermar los ingresos que obtienen muchos sitios web que ofrecen servicios gratuitos. De esta tendencia no se libran ni aquellos que operan presuntamente fuera de la ley, como The Pirate Bay.Ante esta situación, Brendan Eich, creador de JavaScript que salió de Mozilla de forma bastante polémica, decidió crear Brave, un navegador basado en Chromium que tiene “los intereses del usuario en el corazón”, yendo sobre contra rastreadores y publicidad intrusiva que puede terminar siendo muy molesta.Sin embargo, lejos de ofrecer una posición radical, Brave maneja un enfoque bastante revolucionario con Brave Payments (Pagos de Brave), que permite la utilización de una cartera virtual con unos pocos dólares y la configuración de microtransacciones. De esta manera, los sitios web cuyos anuncios han sido bloqueados luego son recompensados con pagos procedentes de Brave Payments.Funciona en Windows, Linux, Mac y Android, pero presenta un inconveniente, y es que solo soporta una cantidad muy limitada de extensiones (posiblemente para evitar la instalación de bloqueadores de publicidad), así que no se lo puede considerar un producto dirigido a todos los perfiles de usuario.SRWare Iron SRWare Iron es otro navegador basado en Chromium enfocado en la privacidad, algo que consigue eliminando las funcionalidades de Chrome que podrían comprometerla. Siendo más concretos, hablamos de características del navegador de Google como las páginas de error, el Actualizador de Google, la carga previa de las DNS, las sugerencias en la barra de direcciones, etc.Sin embargo, este mismo enfoque les ha costado a los desarrolladores de SRWare Iron fuertes críticas, ya que muchos los acusan de no arreglar ningún problema real, o dicho de otra manera, que están resolviendo problemas inexistentes. Google lleva años estando lejos de ser el mayor adalid de la privacidad, así que está por ver si SRWare Iron realmente aporta algo frente a Chrome.Firefox Quantum Si bien Firefox no es un navegador basado en Chromium, en los tiempos actuales no puede ser ignorado como alternativa a Chrome a pesar de que a nivel de cuota está lejos de sus mejores tiempos.La razón de por qué proponemos a Firefox como otra alternativa la tiene Quantum, el nuevo motor de renderizado de Mozilla que le ha permitido a este conocido navegador dar un enorme salto cualitativo, hasta el extremo de que ahora mismo es un competidor más que digno para Chrome.Además de Quantum, también hay que contar el fuerte compromiso con la privacidad que siempre ha tenido Mozilla, ofreciendo por defecto características que permiten bloquear los rastreadores o bien guardar la configuración de la sincronización, ofreciendo una experiencia más personalizada en este sentido.Tras quedar rezagado durante años al mantener a Gecko como motor, Firefox brilla ahora como no lo hacía en años, y además manteniendo características muy propias de esta aplicación como la posibilidad de personalizar casi cualquier aspecto.Soporta Windows, Linux, Mac, Android e iOS, aunque la versión para el sistema operativo de Google no rinde igual que las de escritorio a pesar de usar también Quantum, y la de iOS se ve obligada a emplear WebKit por las limitaciones impuestas por Apple.Conclusión Aunque Chrome es el gran dominador del mercado de los navegadores web, eso no quiere decir que no haya muchas alternativas de calidad que abren la puerta, entre otras cosas, a poner cierta distancia del ecosistema de Google, algo que puede terminar siendo atractivo para los más recelosos de su privacidad.Aunque desde fuera pueda parecer que hay pocas opciones en el mercado de navegadores web, la realidad es que vivimos en la época en que más oferta de aplicaciones hay, con muchas opciones de calidad gracias a que se basan en Chromium, sin desmerecer a otras que siguen fieles a las tecnologías de Mozilla como Pale Moon.
28 comentarios0 shares
08/07/2018Eduardo Medina
Guía para sacar el máximo partido a tu router

Guía para sacar el máximo partido a tu router

Hoy en día es fundamental contar con un buen router para disfrutar de todas las posibilidades que ofrece Internet, y también de nuestros contenidos y de nuestros juegos en línea favoritos.La conexión a Internet es importante pero el router actúa como nexo de unión, lo que significa que de él dependerá la seguridad de nuestra red, la calidad de nuestra conexión, las funciones avanzadas que tendremos a nuestra disposición y el rendimiento final.Modelos como el FRITZ!Box 7590 de AVM ofrecen un excelente equilibrio entre rendimiento, seguridad, funciones avanzadas y soporte de software, pero además de tener un buen router también debemos saber cómo configurarlo para sacarle el máximo partido, y en esta guía os vamos a ofrecer 14 claves sencillas que os permitirán aprovecharlo desde el primer día.No es imprescindible, pero os recomendamos que pongáis en práctica todos los consejos que vamos a repasar a continuación para conseguir los mejores resultados.Cambia la contraseña por defecto: es una manera de mejorar la seguridad de nuestra red y de reducir el riesgo de sufrir ataques de fuerza bruta. Para cambiarla sólo tenemos que entrar en la configuración de nuestro router (192.168.1.1), buscar la opción correspondiente y modificarla. Utilizar el cifrado WPA2-PSK AES: no es perfecta pero hasta el momento se mantiene como la opción más segura y que menor consumo de recursos ofrece. Si utilizamos dicho cifrado acompañado de una contraseña fuerte, como por ejemplo una oración completa sin sentido acompañada de números y símbolos, pondremos las cosas un poco más difíciles a cualquier atacante. Utilizar listas blancas de filtrado MAC: ya os hemos hablado de ellas en otras ocasiones. Con este tipo de listas sólo pueden acceder a nuestra conexión a Internet a aquellos dispositivos que hemos reflejado como autorizados. El resto estarán vetados y no podrán conectarse salvo que los incluyamos en dicha lista de forma manual. Desactivar el broadcast SSID: hablamos de ocultar el nombre de tu red inalámbrica, que dejará de estar visible y tendrá que ser introducida manualmente si queremos conectarnos. Hay muchos sistemas sencillos que realizan ataques de fuerza bruta en base a identificadores de red conocidos, por lo que ocultarlo y cambiarlo ayuda a poner las cosas un poquito más difíciles a posibles intrusos. Cambiar la IP local: la mayoría de los ataques que se lanzan contra redes parten de la IP 192.168.0.1, algo comprensible ya que es la configuración por defecto de casi todos los fabricantes. Es un cambio importante y puede obligarnos a realizar configuraciones adicionales en otros dispositivos, pero en cualquier caso es altamente recomendable. Prioriza tus dispositivos y usa conexiones cableadas: es importante tener claro qué dispositivos quieres que tengan el mayor rendimiento, la menor latencia y la mayor estabilidad posible, y conéctalos por cable Ethernet de 1 Gbps. Asegúrate de que soportan dicha velocidad, ya que en caso contrario podrías experimentar un rendimiento bajo. Cuida las distancias y los obstáculos: en caso de que vayas a utilizar conexiones inalámbricas debes tener mucho cuidado con la colocación de los dispositivos que vas a utilizar, ya que si los mismos se encuentran muy lejos o detrás de muchos obstáculos es posible que la señal del router no llegue adecuadamente, y que por tanto no puedas disfrutar de una experiencia óptima. Activa QoS: sin duda una de las características más útiles e importantes. Permite priorizar el tráfico y garantizar un ancho de banda mínimo a determinados servicios, como por ejemplo el juego online o el streaming de contenidos en alta resolución. Es muy útil cuando tenemos muchos dispositivos conectados al router pero queremos que alguno de ellos siempre tenga garantizado un buen rendimiento. Abre puertos cuando sea necesario: por regla general los sistemas actuales no hay problemas a la hora de jugar online, y por tanto no es necesario abrir puertos adicionales ya que basta con aquellos que vienen abiertos por defecto. Con todo si tienes problemas de rendimiento puedes contactar con el soporte técnico de cada juego en concreto y consultar si necesitas abrir algún puerto adicional, pero te recomendamos que no lo hagas a loco ya que pueden suponer un riesgo para la seguridad. Cambia los canales por defecto: en la mayoría de los casos un router inalámbrico configurado por defecto transmite datos utilizando uno de los trece canales que están disponibles. Si utilizamos el canal por defecto podemos encontrarnos con una fuerte saturación, ya que es posible que muchos de los usuarios de nuestros alrededores estén en las mismas condiciones que nosotros. Los routers más avanzados suelen buscar por sí mismos los canales menos saturados. Utiliza la banda de 5 GHz: los routers de nueva generación cuentan con soporte de WiFi AC, que trabaja sobre la banda de 5 GHz. Dicha banda está menos saturada que la de 2,4 GHz, lo que nos permite disfrutar de una conexión más estable y limpia, y también consigue velocidades superiores. Esto significa que ofrece una mejor experiencia trabajando con múltiples dispositivos, y también con contenidos en streaming en alta definición y con juegos. Evita el uso de estándares antiguos: todo router de nueva generación debe ser compatible con el estándar WiFi AC, aunque por razones de compatibilidad muchos de ellos mantienen el soporte de otros más antiguos y lentos, como 802.11n; que es aceptable todavía hoy, y los 802.11g y 80211.b; que debemos evitar, ya que pueden afectar negativamente al rendimiento de toda nuestra red inalámbrica. Cambia el ancho del canal: es una opción que puede ayudarnos a mejorar el rendimiento cuando nos encontramos a mayores distancias. En los routers más actuales lo normal es encontrar anchos que van de los 20 MHz a los 40 MHz, pero podemos elevarlo por ejemplo hasta los 80 MHz sin problema. Con ese aumento en conexiones WiFi AC mejoraríamos el rendimiento en los dispositivos más alejados. Busca actualizaciones: las actualizaciones pueden contener mejoras a nivel de rendimiento, nuevas funciones y correcciones de errores, así que representan un valor básico para cualquier router.Contenido ofrecido por AVM FRITZ!
0 comentarios0 shares
07/07/2018Isidro Ros
Guía BIOS y UEFI, todo lo que tienes que saber de estos firmware

Guía BIOS y UEFI, todo lo que tienes que saber de estos firmware

BIOS (Basic Input-Output System) es un programa tipo firmware escrito en lenguaje ensamblador que reside en un chip de memoria no volátil (EPROM) pinchado en las placas base de los PCs. Es el primer programa que se ejecuta en el arranque de una computadora y tiene el objetivo de proporcionar la comunicación de bajo nivel, el funcionamiento y la configuración básica del hardware del sistema.BIOS es uno de los componentes que durante más tiempo se ha mantenido en las computadoras ya que existe desde los primeros IBM PC. Aunque ha sido mejorado con algunas funciones, no ha variado sustancialmente en décadas y por ello tiene múltiples limitaciones. Aunque es una parte importantísima del equipo, habitualmente pasa inadvertido para la mayoría de usuarios menos avanzados. Parte de culpa la tiene su interfaz, compuesta de múltiples y enrevesadas ventanas en modo texto.Para superar estas limitaciones, en 2007 Intel, AMD, Microsoft y los grandes fabricantes de PCs, acordaron promover la nueva especificación Unified Extensible Firmware Interface (UEFI). La gran mayoría de los ordenadores que se venden hoy en día utilizan UEFI en lugar del BIOS tradicional, aunque sueñen añadir un modo de compatibilidad con ellos para permitir el uso de software o hardware que podría no ser totalmente compatible con UEFI.Después de unos años de transición, fabricantes como Intel prevén dar carpetazo total a BIOS en 2020, adoptando el modo UEFI 3 que ves en la imagen. Terminará una era BIOS que habrá durado 40 años.UEFI contra BIOS: múltiples mejoras UEFI tiene el mismo objetivo que BIOS y está encargado de sus mismas funciones, pero añade otras funciones y lo mejora a todos los niveles, comenzando por una interfaz gráfica más sencilla de utilizar y comprender.Además del apartado visual hay otras diferencias y ventajas frente a BIOS que podemos señalar:Aumento de funciones y mayor flexibilidad gracias a su programación en lenguaje C. Posibilidad de añadir extensiones de terceros como herramientas para overclocking o software de diagnóstico, ya que el chip de memoria que incluye UEFI no está bloqueado en la placa base como BIOS. Mayor velocidad de arranque de los equipos. Soporte para arranque de dispositivos de almacenamiento de mucha más capacidad: 2,2 Tbytes y un máximo teórico de 9.4 zettabytes. Mayor seguridad con Secure Boot. Un componente opcional propuesto por Microsoft que en sus inicios no estuvo exento de polémica porque impedía instalar otros sistemas operativos alternativos como Linux o incluso Windows anteriores. Cambios en el proceso de arranque:Cómo se accede a la BIOS y UEFI El acceso a la BIOS / UEFI se realiza habitualmente pulsando una determinada tecla del teclado o una combinación de las mismas durante la fase de testeo del hardware o lo que es lo mismo, hay que pulsarla en cuanto arrancamos el equipo. La tecla correspondiente suele aparecer en pantalla cuando arrancamos el equipo, pero si tenemos activado el inicio rápido pueden pasar desapercibidas.Los fabricantes no lo ponen fácil porque cada uno emplea teclas distintas. Eso sí, suelen repetirse en todos los equipos de la misma marca y en la mayoría de los casos utilizan las teclas de “Función” o la de “Escape”. Para encontrarla, puedes intentar visualizarla en pantalla; revisar el manual de la placa base; buscarla en Internet o ver esta guía que incluye la usada por los grandes fabricantes.Recuerda, hay que pulsar las teclas durante el proceso Power On Self-Test que sucede en el arranque del equipo y antes de que se haya iniciado el sistema operativo instalado. Cómo puedo saber la versión de BIOS y UEFI instalada Todos los fabricantes publican cada cierto tiempo en sus sitios web nuevas versiones de estos programas. Hay múltiples maneras para conocer la versión que tenemos instalada y eventualmente actualizarla. Los repasamos:La manera clásica de conocer si tenemos la última versión instalada en cualquier máquina, pasa por acceder a la misma BIOS. Una vez allí, encontraremos la versión en la información del sistema:Dentro del sistema operativo también podemos encontrar información ampliada, el modo de BIOS, el proveedor o la versión. En sistemas Windows se encuentra accediendo a la "Búsqueda > Información del Sistema" o ejecutando el comando "msinfo32":Para usuarios que usen la consola de Windows se puede usar el comando "wmic bios get smbiosbiosversion", aunque la información es inferior al modo anterior:Finalmente, también podemos usar aplicaciones de terceros. Entre las más conocidas está CPU-Z, que ofrece múltiple información incluyendo la BIOS instalada en el apartado de placa base:Cómo se actualiza BIOS y UEFI ¿Debo hacerlo? La BIOS / UEFI no requiere la actualización que otros componentes del equipo, como veíamos la semana pasada con la actualización del controlador de gráficos. De hecho, hace años con las viejas BIOS no se recomendaba hacerlo salvo casos extraordinarios ante su problemática, por su almacenamiento en una memoria no-volátil y la posibilidad de dañar la placa base si durante el proceso sucedía un corte de corriente o un error en la lectura o flasheo del programa.Aunque sigue siendo un proceso delicado, las UEFI actuales han mejorado enormemente la situación. Cuentan con sistemas de seguridad para evitar errores; doble BIOS por si una de ellas falla; actualización directa desde Internet o incluso desde el mismo sistema operativo sin tener que almacenar la nueva versión en un medio de almacenamiento externo. Muy problemáticos antiguamente cuando había que realizarlos desde CDs o disquetes que fallaban a la mínima ocasión.En todo caso, es un programa muy importante que sigue siendo necesario actualizar para agregar nuevas características, corregir errores o añadir soporte para componentes como los nuevos procesadores que van llegando al mercado y que habitualmente requieren la actualización de la BIOS / UEFI para poder funcionar.No hay un método estándar para actualizar la BIOS / UEFI porque cada fabricante usa el que considera. Una vez que conocemos la versión instalada y el modelo de nuestra placa base, tendremos que dirigirnos a la página de soporte de cada fabricante, seleccionar nuestra placa base, revisar las novedades que podrás ver como BIOS o Firmware, descargar los archivos/programas necesarios y seguir las instrucciones de instalación:Todos los fabricantes de placas base (ASUS, GIGABYTE, MSI...) ofrecen soporte con BIOS actualizadas. En el caso de equipos OEM (HP, Lenovo, Dell...), son los mismos fabricantes los que ofrecen este tipo de asistencia. El método de instalación varía dependiendo del fabricante y BIOS / UEFI instalada pero podrás encontrar desde la instalación desde el sistema operativo (personalmente no la utilizo); la descarga de un archivo que junto a un programa DOS se carga en un medio de almacenamiento externo como un pendrive o, lo más sencillo, la descarga desde Internet.¿Qué puedo hacer en una BIOS y UEFI? Ya hemos visto que se trata del primer programa que se ejecuta en el arranque de una computadora y tiene el objetivo de proporcionar la comunicación de bajo nivel, el funcionamiento y la configuración básica del sistema. O sea, gestiona y controla que el hardware se soporte correctamente antes de que arranque el sistema operativo.En una UEFI moderna sus posibilidades son múltiples, además de la actualización de la misma que vimos en el punto anterior y un montón de información, desde el procesador a las memorias RAM; las unidades de almacenamiento en uso; la temperatura del sistema o los ventiladores instalados y su velocidad de funcionamiento.Uno de los usos más sencillos en BIOS es ordenar el orden de arranque de las unidades de almacenamiento. Una gestión imprescindible, por ejemplo, a la hora de instalar/actualizar desde cero el sistema operativo, usar suites de mantenimiento o antivirus que cargamos desde un pendrive o medio óptico. También seleccionar el arranque de varios discos donde podemos tener distintos sistemas instalados.Funciones más avanzadas permiten gestionar niveles de RAID para las unidades de almacenamiento o la frecuencia y voltaje del procesador y las memorias incluyendo lo que conocemos como técnicas de overclocking, "subiendo de vueltas" estos componentes por encima de su funcionamiento base. La mayoría de placas nuevas ofrecen modos automáticos buscando el rendimiento, estabilidad o autonomía. También se pueden ajustar un montón de parámetros manualmente aunque aquí sí se exige un conocimiento muy preciso de lo que se está haciendo.En definitiva todo un mundo de posibilidades para gestionar tu PC desde el arranque mediante una interfaz gráfica más sencilla de utilizar y comprender que el de las viejas BIOS que dejarán de existir en equipos nuevos en 2020 tras 40 años en nuestros ordenadores personales.
13 comentarios0 shares
06/07/2018Juan Ranchal
[ ]