Rendimiento » MuyComputer
[ Rendimiento ]
Comparativa de rendimiento: Core i7 4770K frente a Core i7 8700K

Comparativa de rendimiento: Core i7 4770K frente a Core i7 8700K

Hardware Unboxed ha publicado un nuevo análisis de rendimiento en el que comparan el veterano Core i7 4770K frente al Core i7 8700K, e incluyen además los Core i7 7700K y Core i5 serie 8000 para que tengamos una visión más clara de la evolución a nivel de desempeño que han marcado los últimos procesadores de Intel a nivel de consumo general.Los Core i7 4770K y Core i7 7700K cuentan con cuatro núcleos y ocho hilos y están basados en las arquitecturas Haswell y Skylake, respectivamente. Por contra el Core i7 8700K suma seis núcleos y doce hilos y está basado en Coffee Lake S.La conclusión que podemos sacar es muy sencilla y muy clara, los Core i7 4770K todavía ofrecen un rendimiento excelente y si los tenemos funcionando a una frecuencia elevada (4,6 GHz) su desempeño no tiene nada que envidiar al de otros procesadores actuales.Está claro que los Core i7 7700K y los Core i7 8700K ofrecen un rendimiento superior, gracias sobre todo a las mejoras a nivel de IPC y a las mayores frecuencias de trabajo base que traen ambos procesadores, pero las diferencias no son lo bastante grandes como para justificar un cambio de plataforma.Decimos esto porque el salto de Haswell a Coffee Lake obliga a cambiar de placa, procesador y memoria RAM, lo que en el mejor de los casos puede suponer aproximadamente unos 450 euros (placa Z370 económica por 140 euros, 8 GB de DDR4 por unos 100 euros y un micro Core i5 8400 por 199 euros).
3 comentarios1 shares
17/11/2017Isidro Ros
iPhone X contra Galaxy Note 8 en test de rendimiento

iPhone X contra Galaxy Note 8 en test de rendimiento

iPhone X, el nuevo tope de gama del catálogo de smartphones de Apple, ya está en el mercado y con buena acogida según los primeros datos, aunque tendremos que esperar al final del trimestre para conocer su alcance en ventas y comprobar -si como se sospecha- puede canibalizar a los iPhone 8. En todo caso, el negocio de móviles de Apple es fabuloso y espera vender un total superior a los 80 millones de unidades en el trimestre navideño, el mejor del año en ventas y sumados también series anteriores como los iPhones 7 y 6.Es claro que iPhone X tiene un competidor en la gama alta que resalta por encima del resto, el Galaxy Note 8 de Samsung. Una vez ambos en el mercado, se acumulan las pruebas "frente a frente" entre ambos, especialmente en rendimiento. Hace unos días se publicó que el terminal de Apple sumaba mayor puntuación en Geekbench y hoy nos llega otra más interesante.La prueba de velocidad es simple y se basa en el lanzamiento y la recarga de las aplicaciones más comunes que la gente usa en su smartphone, incluyendo apps de medios sociales y otras herramientasEl resultado puedes verlo en el vídeo: el Galaxy Note 8 es más rápido que el iPhone X en este apartado, con una prueba de uso "más real" que la que ofrecen los grandes benchmark.Curiosamente, no se obtuvieron los mismo resultados cuando se enfrentó al iPhone 8 Plus contra el Note 8. El terminal de Apple tenía una ligera ventaja en los tiempos de lanzamiento de las aplicaciones, aunque su menor cantidad de RAM le pasaba factura ya que al recuperar aplicaciones que quedan en segundo plano tenía que volver a cargarlas.Señalar que el nivel de rendimiento no es el principal aspecto por el que la mayoría de usuarios termina eligiendo su nuevo smartphone y además, hay otros más económicos que ellos que seguramente obtendrían resultados similares.
0 comentarios2 shares
06/11/2017Juan Ranchal
Análisis de rendimiento de las Radeon RX Vega en juegos y minado; consumos y temperaturas

Análisis de rendimiento de las Radeon RX Vega en juegos y minado; consumos y temperaturas

Hoy se ha producido el lanzamiento oficial de las nuevas tarjetas gráficas tope de gama de AMD y por ello hemos querido hacer este artículo recopilatorio, en el que veremos el rendimiento de las Radeon RX Vega 64 y 56 tanto en juegos como en minado de criptodivisas, así como su consumo y las temperaturas de trabajo.En los dos vídeos que acompañamos podemos ver las pruebas de rendimiento de las Radeon RX Vega 56 que han realizado DigitalFoundry y Hardware Unboxed. En general se confirma lo que habíamos visto en rumores anteriores, la solución de AMD ofrece un rendimiento ligeramente superior al de las GTX 1070 de NVIDIA, aunque tiene consumos más elevados.Su temperatura de trabajo alcanza los 75 grados con el diseño de referencia, un dato positivo que deja la puerta abierta a la llegada de modelos personalizados que cuenten con sistemas de refrigeración superiores y overclock para mejorar el rendimiento.Antes de pasar a hablar de la Radeon RX Vega 64 debemos hacer un inciso, y es que resulta muy llamativo ver que en ciertas pruebas la Radeon RX Vega 56 (The Division, Resident Evil 7 y Battlefield 1 por ejemplo) se acerca bastante al rendimiento que ofrece la GTX 1080 de NVIDIA, mientras que en Warhammer 40.000: Dawn of War y en DiRT 4 logra superarla.Pasamos ahora a ver el rendimiento de las Radeon RX Vega 64, gracias al completo análisis que han publicado los chicos de TechPowerUP. Esta tarjeta gráfica viene con doble BIOS y varios perfiles que permiten alterar las frecuencias de trabajo, lo que significa que es posible aumentar el rendimiento a costa de incrementar el consumo, y también a la inversa.[gallery columns="7" link="file" ids="192340,192341,192342,192343,192344,192345,192346"]A nivel de rendimiento según dicho análisis hay prácticamente un empate técnico entre la Radeon RX Vega 64 de referencia y la GTX 1080, aunque la primera consume más y registra temperaturas máximas de 85 grados a plena carga. Notas finales La Radeon RX Vega 56 es una tarjeta gráfica interesante incluso a pesar de su elevado consumo. Ofrece un buen rendimiento y en algunos momentos logra competir con la GTX 1080, lo que se traduce en un buen valor precio-rendimiento. Las versiones personalizadas de los OEM prometen.Por su parte la Radeon RX Vega 64 queda en un nivel inferior al de aquella si lo enfocamos desde la perspectiva calidad-precio, ya que en general su rendimiento medio es idéntico al de una GTX 1080 pero tiene un consumo muy superior.La Radeon RX Vega 56 es la mejor opción, de eso no tengo duda alguna, aunque debemos tener en cuenta que el núcleo gráfico Vega incorpora una serie de avances tecnológicos importantes que todavía no se aprovechan en juegos actuales para PC, y que gracias a ellos y a un mejor soporte a nivel de drivers podríamos ver aumentos de rendimiento en los próximos meses.
9 comentarios1 shares
14/08/2017Isidro Ros
Comparativa de rendimiento, AMD Threadripper frente a Intel Core X

Comparativa de rendimiento, AMD Threadripper frente a Intel Core X

AMD Threadripper es la alternativa a los Intel Core X para motorizar las plataformas de alto rendimiento conocidas como HEDT, lo más potente del mercado computacional a nivel cliente, con destino a ordenadores de sobremesa gama entusiasta y estaciones de trabajo profesionales.Los AMD Threadripper fueron lanzados oficialmente ayer y ya nos llegan las primeras pruebas de rendimiento como la realizada por ars technica. Aunque te ofreceremos nuestra propia comparativa del análisis se desprende un gran titular que ya hemos utilizado con los RYZEN: AMD está de vuelta. Consumidores e industria están de enhorabuena porque Intel no ha tenido rival en estas plataformas HEDT en la última década, como vimos en el análisis del Core i7-6950X, inalcanzable para AMD.Los AMD Threadripper dan un vuelco a la situación, ofreciendo una plataforma que se pone al día en soporte para nuevas tecnologías con un chipset X399 completísimo y -según la comparativa- superando en rendimiento en muchas de las pruebas a los Intel Core X en el mismo rango de precios. En concreto, ars technica ha enfrentado un AMD Threadripper 1950X con un Core i9-7900K, ambos con el mismo precio de 1.000 dólares.  Rendimiento AMD Threadripper frente a Intel Core X Las pruebas se realizaron sobre hardware similar en cuanto a RAM y almacenamiento. El AMD se colocó en una placa ASUS ROG Zenith Extreme (la mejor que puedes comprar para la plataforma), mientras que el Intel empleó una ASUS ROG Strix X299 Gaming-E. Ambas equipaban 32 Gbytes de memoria DDR4 a 3200 MHz en cuádruple canal y una SSD Samsung 960 Pro M.2 a PCIe.El análisis contempló pruebas con benchmark oficiales, aplicaciones profesionales y juegos, los dos segmentos generales hacia donde van enfocadas estas plataformas HEDT. Para obtener una visión de conjunto del mercado computacional, también se añadieron otros procesadores, el segundo de los Threadripper, otros HEDT de Intel de anteriores generaciones, RYZEN y el Core i7-7700K, el más potente de la plataforma "Kaby Lake". Sin más preámbulos, los resultados:Los resultados están a la vista. El Threadripper 1950X supera al Core i9-7900K en la mayoría de las pruebas, especialmente en las que aprovechan esos 16 núcleos y 32 hilos de procesamiento nativo que ofrece el micro de AMD. Los resultados están más igualados en tareas de simple núcleo. De hecho, el Core i7-7700 hace valer su potencia en instrucciones por ciclo (IPC) y es capaz de batir a ambos con un precio de un tercio de ellos. JuegosEn el apartado de juegos la situación cambia y el Core i9-7900K tiene mejor comportamiento global que el AMD Threadripper 1950X, especialmente con DX12. Hay que volver a repetir lo que sabemos de las pruebas generaciones anteriores: los juegos no aprovechan la barbaridad de núcleos de procesamiento de los HEDT y de hecho, el Core i7-7700K,  sigue ofreciendo grandes resultados con un precio infinitamente inferior.Otro dato confirmado derivado de lo anterior. La gráfica sigue mandado especialmente a partir de resoluciones 2K. Y en 4K, olvídate, da igual el procesador que montes (en estos niveles), los resultados con algunos juegos son idénticos como puedes ver en la gráfica del Rise of the Tomb Raider. Conclusiones Repetimos. El gran titular es que AMD está de vuelta. Threadripper es una plataforma potente y consistente, alternativa clara a Intel para montar los PCs más potentes del mercado de consumo, por sus enormes mejores sobre los anteriores FX. En rendimiento general no se queda a la zaga de Intel y lo supera en muchas aplicaciones profesionales, algo impensable hasta hace muy poco, si bien en IPC sigue estando por debajo.Destacar la plataforma AM4 creada por AMD, el socket SP3r2 (LGA 4094) y el chipset X399 que acompaña a los Threadripper. No todo son milisegundos y FPS, y AMD se ha puesto al día en soporte para los últimos estándares y tecnologías, véase el cuádruple canal de memoria, las tres ranuras PCI-Express 3.0 x16 que incorpora y que soporta hasta 64 líneas PCIe para superar a los modelos de Intel con 44, los conectores de 32 Gb/s para soportar las M.2 a PCIe más potentes y un sin fin de puertos SATA-III o USB.Threadripper necesita de un buen sistema de refrigeración (AMD recomienda líquida) para funcionar y obligada si queremos realizar overclocking. También necesitaremos de una buena fuente de alimentación para alimentar esos 180 vatios que marca su TDP.Los precios son "competitivos" frente a Intel pero, cuidado, que hablamos de pagar 1.500 dólares solo por el micro y una placa a su altura como la espectacular ASUS utilizada en la prueba.Para el apartado de juegos qué decirte que no sepas. Personalmente nunca montaría estas plataformas HEDT (ni de AMD ni de Intel) si voy a dedicar el equipos sólo para juegos y no para edición y creación. Es muchísimo más rentable montar un Core i7-7700K (solventísimo) o un RYZEN de gama alta y el enorme ahorro de precio consiguiente aprovecharlo para invertir en gráficas.Prueba completa y gráficas | Ars Technica
10 comentarios2 shares
11/08/2017Juan Ranchal
AMD RX Vega 56 supera ampliamente a la NVIDIA GTX 1070 (Benchmarks no verificados)

AMD RX Vega 56 supera ampliamente a la NVIDIA GTX 1070 (Benchmarks no verificados)

AMD RX Vega 56 es el modelo más económico de la nueva generación de gráficas dedicadas Radeon RX Vega, la esperada serie para ordenadores de sobremesa de gama alta.AMD RX Vega 56 es una versión ligeramente reducida del tope de gama Vega 64, con 56 unidades de cómputo y menor cantidad de procesadores stream, unidades de textura y de rasterizado. Ello permite rebajar su precio de venta.Aún así, usa el mismo núcleo gráfico "Vega 10" de su hermana mayor e incluye los 8 Gbytes de memoria HBM2 dedicada. Como decíamos en su presentación y a falta de los correspondientes resultados en pruebas de rendimiento, sobre el papel tiene características para encabezar las listas de gráficas por rendimiento/precio. Un artículo de TweakTown nos pone sobre la pista de este rendimiento, aunque hay que citar que se trata de benchmarks sin verificar.La RX Vega 56 fue testeada en un equipo con procesador Intel Core i7-7700K a 4,2 GHz, con 16 GB de memoria DDR4-3000 y sistema Windows 10.  Las pruebas se ejecutaron en una resolución 2K (2560 x 1440 píxeles) y los resultados fueron enfrentados a los obtenidos con una GTX 1070 de NVIDIA, su rival más directo: Battlefield 1 (Configuración Ultra): 95.4 FPS (GTX 1070: 72.2 FPS) - 32% a favor de Vega 56 Civilization 6 (Configuración Ultra, 4x MSAA): 85.1 FPS (GTX 1070: 72.2 FPS) -  17% a favor de Vega 56 DOOM (Configuración Ultra, 8x TSAA): 101.2 FPS (GTX 1070: 84.6 FPS) - 20% a favor de Vega 56 Call of Duty: Infinite Warfare (Configuración High): 99.9 FPS (GTX 1070: 92.1 FPS - 8% a favor de Vega 56Con estos resultados, RX Vega 56 supera en un 20% de rendimiento medio a la GTX 1070, al tiempo que es un 15% más económica, 399 dólares frente a los 460 dólares de precio medio del modelo de NVIDIA.Nos faltan datos, la prueba de referencia es limitada y los benchmarks no están verificados, pero suena bien. A la espera de más información, podemos concluir que AMD plantea una serie alternativa a NVIDIA en la gama más alta del mercado gráfico de consumo.
10 comentarios2 shares
03/08/2017Juan Ranchal
Firefox añadirá un configurador para mejorar el rendimiento

Firefox añadirá un configurador para mejorar el rendimiento

Los ingenieros responsables de Firefox están trabajando en una nueva sección en la zona de preferencias del navegador web, que permitirá a los usuarios controlar y mejorar su rendimiento.El navegador de Mozilla, de código abierto, multiplataforma e históricamente el más propenso de los grandes a apoyar estándares abiertos y otros aspectos tan importantes como el respeto de la privacidad del usuario, no es el mejor en cuanto a consumo de recursos.Pero está en camino de mejorarlo. Firefox está trabajando en el soporte para múltiples procesos y la nueva característica que permitirá a los usuarios afinar su rendimiento, apunta muy bien.Una de las funciones de optimización deshabilitará temporalmente todas las extensiones, grandes tragonas de recursos. También vemos un botón de configuración recomendado que automáticamente mejorará el rendimiento del navegador.El control de procesos vendrá bien en equipos con una cantidad limitada de memoria RAM, mientras que deshabilitar la técnica de prefetching mejorará conexiones lentas y las animaciones de la interfaz de usuario afectará a la CPU y GPU.Habilitar esas opciones mejorará la experiencia general del usuario en equipos más moderno o potentes, pero deshabilitarlas pueden venir muy bien en equipos más antiguos o de menos rendimiento. No se sabe cuando estará disponible en el canal estable este configurador. Y las mejoras y añadidos que pueden sumarse hasta entonces.
6 comentarios97 shares
13/04/2017Juan Ranchal
Prueba de rendimiento de Ghost Recon Wildlands

Prueba de rendimiento de Ghost Recon Wildlands

TechPowerUP! ha publicado un análisis de rendimiento de Ghost Recon Wildlands, un juego desarrollado por Ubisoft que se había convertido en uno de los más esperados del año, y que al final ha llegado a PC con unas exigencias bastante elevadas.En sus requisitos recomendados el juego lista una GTX 970/GTX 1060 o AMD R9 290X/R9 390/RX 480, pero como vemos ninguna de esas tarjetas gráficas es capaz de mover Ghost Recon Wildlands en 1080p y calidad máxima manteniendo 60 FPS.Cuando bajamos un poco los ajustes a calidad "muy alta" la situación mejora muchísimo, tanto que los fotogramas por segundo llegan a doblarse en algunos casos y con una humilde RX 460 de 4 GB podremos mantener medias de 31 FPS.Subiendo la resolución a 1440p y utilizando el nivel de calidad "muy alta" podemos jugar sin problemas incluso con soluciones gráficas de gama media, pero si mantenemos esa misma configuración y subimos la resolución a 2160p sólo podremos obtener tasas aceptables de fotogramas por segundo con las tarjetas gráficas más potentes del mercado.Por último hay que mirar el consumo de memoria gráfica que hace Ghost Recon Wildlands. En 1080p y calidad muy alta ronda los 3 GB, pero si subimos los ajustes a "ultra" el consumo se dispara hasta 5 GB, un dato que nos ayuda a entender porqué una GTX 970 o una RX 470 rinden mejor en 1440p y calidad muy alta que en 1080p y calidad ultra.[gallery columns="7" link="file" ids="175090,175089,175088,175087,175086,175085,175084"]
3 comentarios5 shares
08/03/2017Isidro Ros
Primeras pruebas de rendimiento de la GTX 1080 TI, temperaturas

Primeras pruebas de rendimiento de la GTX 1080 TI, temperaturas

VideoCardz nos deja una primera prueba de rendimiento de la GTX 1080 TI en su versión Founders Edition, aunque en este caso la tarjeta ha sido overclockeada hasta llegar a los 2.062 MHz en la GPU y 11.404 MHz en la memoria GDDR5X, lo que significa que el resultado que vamos a ver es ligeramente superior al que deberían mostrar las tarjetas en su estado de referencia.Como podemos ver se ha utilizado 3DMark como entorno de pruebas, y según indican a pesar del overclock y de que se ha utilizado el modelo Founders Edition la GTX 1080 TI ha registrado unas temperaturas muy buenas, ya que en ningún momento han superado los 63 grados.Echando un vistazo a los números concretos nos llama bastante la atención ver lo abultadas que son las diferencias entre el rendimiento de la GTX 1080 TI y el de la GTX 1080, ya que la primera llega a sacarle más de 7.000 puntos en Fire Strike "Performance". Por contra en ese mismo modo la GTX 1080 apenas supera a la GTX 1070 por algo más de 3.400 puntos.En cualquier caso debemos tener en cuenta que se trata de pruebas de rendimiento sintético y que como tales no llegan a reflejar a la perfección el rendimiento en entornos reales, aunque nos sirven para hacernos una idea de lo que podemos esperar del nuevo buque insignia de NVIDIA.Antes de terminar os dejo una imagen comparativa donde podemos ver la distribución en el PCB que tienen las GTX 1080 TI y GTX TITAN X Pascal de NVIDIA. En rojo están marcados todas las diferencias que presentan una y otra tarjeta.Más información: VideoCardz.
2 comentarios8 shares
06/03/2017Isidro Ros
Intel descubre una forma de mejorar el escalado de los núcleos de la CPU

Intel descubre una forma de mejorar el escalado de los núcleos de la CPU

Uno de los grandes problemas que enfrenta el escalado de los núcleos que incorpora una CPU es la correcta división del trabajo entre ellos, un elemento que a su vez depende de una buena comunicación entre los núcleos.Os lo explico con un ejemplo para entender mejor todo el artículo. Tenemos un procesador de cuatro núcleos y ocho hilos que trabaja desmenuzando una aplicación en partes para poder aprovechar el potencial de aquellos.Sin embargo mientras que un núcleo está trabajando en su parte es posible que necesite información que se encuentra en una parte que está siendo resuelta por otro núcleo, y que no pueda acceder a ella hasta que aquél termine.Como vemos un mal reparto de la carga de trabajo y una comunicación limitada producirá un retraso que afectará al rendimiento e impedirá al procesador rendir a su máximo nivel, un mal que continúa siendo algo bastante habitual y que no ha mejorado con los gestores de colas de trabajo basados en software.Precisamente eso es lo que Intel quiere mejorar y parece que ha descubierto una solución que podría funcionar a la perfección, gracias al trabajo que ha realizado de forma conjunta con la Universidad Estatal de Carolina del Norte.Lo que plantean es la inclusión en los procesadores de un "Queue Management Device (QMD)", es decir, un Dispositivo de Gestión de Colas basado en hardware que conseguiría reducir la carga que supone la comunicación efectiva entre núcleos y mejorar el rendimiento en un factor de 2 a 12 frente a los sistemas actuales.Un planteamiento interesante que podría mejorar el rendimiento general de los procesadores multinúcleo de propósito general, aunque de momento se encuentra en una etapa temprana de investigación así que todavía tiene camino por recorrer antes de que lleguemos a verlo implementado en algún producto de consumo.Más información: DvHardware.
12 comentarios166 shares
09/09/2016Isidro Ros
Rendimiento de DOOM en PC con GTX 950, GTX 960, GTX 970 y GTX 980 Ti

Rendimiento de DOOM en PC con GTX 950, GTX 960, GTX 970 y GTX 980 Ti

El nuevo y esperado título de la conocida franquicia de id Software ya está entre nosotros. En unos días publicaremos su análisis, pero para ir abriendo boca queremos compartir con vosotros un interesante vídeo en el que podemos ver el rendimiento de DOOM en PC con diferentes tarjetas gráficas de NVIDIA.Los modelos utilizados en el vídeo son las GTX 950, GTX 960, GTX 970 y GTX 980 Ti, siendo la tercera la solución recomendada por NVIDIA para disfrutarlo al máximo en resoluciones 1080p, siempre que tengamos un procesador a la altura y 8 GB de memoria RAM.Echando un vistazo a los resultados del vídeo podemos sacar algunas conclusiones interesantes que os ayudarán a decidir si realmente vais a poder disfrutarlo con vuestro equipo, partiendo de la base de que lo mínimo es superar los 30 FPS de forma estable.Tened en cuenta que las pruebas de rendimiento de DOOM en PC se han realizado con resoluciones 1080p, así que el uso de una resolución inferior permitiría aumentar considerablemente el rendimiento en soluciones gráficas de menor potencia.Con una GTX 980 TI el rendimiento en ultra es soberbio, ya que se consiguen picos de más de 150 fotogramas por segundo, así que dicha tarjeta nos permitiría jugar sin problemas en resoluciones QHD (2.560 x 1.440 píxeles). La GTX 970 tampoco tiene problemas y muestra un rendimiento soberbio en 1080p y calidad ultra, rondando entre los 110 y los 70 fotogramas por segundo, dependiendo de las exigencias de cada zona en concreto. Con ella sería posible jugar en resoluciones QHD pero bajando calidad si queremos 60 FPS. Saltando a la GTX 960 vemos que con los ajustes en alto y 1080p rondamos entre los 45 y los 60 fotogramas por segundo, siendo lo ideal jugar en medio si queremos asegurar la máxima fluidez. Terminamos con la GTX 950, que permite mover DOOM en calidad media y 1080p con medias cercanas a los 40 fotogramas por segundo, siendo esa configuración la máxima que podemos alcanzar sin hacer un excesivo sacrificio de fluidez.Con esto en mente podemos intuir que todo lo que esté por debajo de una GTX 950, como las GTX 750 Ti, sólo sería recomendable si vamos a jugar en resoluciones inferiores, como 720p.
10 comentarios14 shares
13/05/2016Isidro Ros
Prueba de rendimiento de HITMAN bajo DirectX 12

Prueba de rendimiento de HITMAN bajo DirectX 12

Ya han empezado a aparecer las primeras pruebas de rendimiento de HITMAN, un juego muy esperado, sobre todo por su elevada calidad técnica y por su soporte de DirectX 12, aunque el juego también funciona sin problemas en DirectX 11.Hemos recopilado algunos de los resultados que han mostrado diferentes medios para así conseguir una visión mejor de cómo funciona el juego en diferentes configuraciones gráficas, aunque podemos adelantar que en tarjetas gráficas AMD se coloca por encima de NVIDIA de forma clara.En 1080p y calidad máxima vemos que el mínimo deseable es una R9 380X, ya que con las que están por debajo las texturas estaban en calidad media o baja. Para una experiencia óptima el mínimo es una GTX 970, y lo recomendado una R9 290, solución ésta última que como vemos supera a la GTX 980.Si subimos a 2K vemos que la GTX 970 y la R9 380X empatan como mínimo para superar los 30 FPS, mientras que la R9 290 aguante muy bien el tirón y las R9 390X vuelven a superar a las GTX TITAN X, a pesar de que éstas últimas son el doble de caras.En 4K el mínimo para jugar con una fluidez mínima es una R9 390, aunque lo ideal es una Radeon R9 Fury X o una GTX 980 TI, ya que como vemos ambas encabezan la prueba de renidmiento a dicha resolución.Saltando a revisar el impacto de la CPU podemos ver que el FX 8370 queda muy por debajo del Core i7 6700K de Intel bajo DirectX 11, pero mejora enormemente cuando utilizamos DirectX 12.Por último no podemos pasar por alto la ligera pérdida de rendimiento que sufren las GPUs NVIDIA en DirectX 12, todo lo contrario que sus homónimas de AMD, que consiguen una pequeña mejora.Más información: WCCFTech.
53 comentarios67 shares
12/03/2016Isidro Ros
Rendimiento multiGPU cruzado con soluciones GTX y Radeon

Rendimiento multiGPU cruzado con soluciones GTX y Radeon

Uno de los grandes atractivos que plantea DirectX 12 son las mejoras de rendimiento gracias a la introducción de nuevas tecnologías, como los shaders asíncronos, por ejemplo, y también gracias al uso de APIs de bajo nivel que permiten un mayor aprovechamiento de todos los recursos del sistema.Ya hemos podido ver los beneficios de todo esto en Xbox One y PS4, consolas que a pesar de su baja potencia comparada con un PC de gama alta disfrutan de la optimización que permite conseguir dichas herramientas.Dicho esto no podemos olvidarnos de las bondades que plantea también el uso de configuraciones multiGPU en DirecX 12, siendo posible no sólo sumar la memoria de vídeo de las tarjetas gráficas, sino además utilizar soluciones de fabricantes distintos.Así, es posible usar una GTX y una Radeon en modo multiGPU, aunque como vemos los resultados que conseguimos son bastante dispares, y dejan claros algunos detalles importantes que debemos tener muy en cuenta.Por un lado salta a la vista que la tarjeta gráfica más lenta influye drásticamente en el rendimiento final, lo que supone que utilizar configuraciones como una GTX 980 Ti y una GTX 960 no sea nada recomendable.Esto nos lleva al siguiente punto, y es que la tarjeta más potente debe ser utilizada como maestra, ya que también influye bastante en el rendimiento, aunque como podemos ver en general el escalado resulta bastante pobre.Podemos concluir que todavía queda mucho camino por recorrer, y que las primeras pruebas no son del todo alentadoras.Más información: TechPowerUP!
27 comentarios12 shares
28/02/2016Isidro Ros
Prueba de rendimiento de Rise of The Tomb Raider en PC

Prueba de rendimiento de Rise of The Tomb Raider en PC

La esperada nueva entra de las aventuras de LaraCroft ya está disponible para PC, aunque las recomendaciones de NVIDIA nos hicieron dudar un poco sobre la optimización real de Rise of The Tomb Raider en su salto a compatibles.Gracias a la web alemana PCGamesHardware hemos podido ver un completo análisis del juego, en el que incluyen desde un repaso a los diferentes ajustes gráficos hasta un resumen claro del rendimiento que podemos esperar en función de los componentes de nuestro equipo.Al igual que ocurrió con el anterior Tomb Raider dispondremos de una gran cantidad de opciones gráficas que podremos ajustar para mejorar el rendimiento en caso de que nuestro equipo no sea demasiado potente, pero en las pruebas realizadas con los ajustes al máximo los resultados en 1080p y 2K fueron claros.En el primero caso lo mínimo si aspiramos a jugar a 30 FPS es una GTX 770 o una R9 380, aunque lo recomendado para 60 FPS es una GTX 980. Por contra, si subimos la resolución a 2K manteniendo la calidad gráfica necesitaremos como mínimo una R9 390, y si queremos llegar a los 60 FPS una GTX 980 TI.Llama la atención en general el mayor rendimiento que muestran las soluciones gráficas de NVIDIA, algo que nos lleva a pensar que el juego está optimizado especialmente para funcionar mejor en las tarjetas gráficas del gigante verde.Por otro lado también parece que las exigencias del juego son quizá demasiado elevadas, sobre todo teniendo en cuenta la potencia que ofrece una Xbox One, plataforma sobre la que Rise of The Tomb Raider corre bastante bien a pesar de sus limitaciones.Más información: PCGamesHardware.
2 comentarios15 shares
28/01/2016Isidro Ros
Apple iPad Pro, análisis
8review

Apple iPad Pro, análisis

Cuando Apple lanzó el primer iPad allá por el año 2010, esta tableta con pantalla de 9,7 pulgadas inició una revolución en la manera en que todos nos relacionábamos con nuestros ordenadores personales.Tuvieron que pasar dos años largos para que el primer iPad mini con pantalla de 7,9 pulgadas ampliara las opciones de elección de los usuarios, una decisión muy acertada porque las cifras de ventas han demostrado que hay mercado para ambos formatos.Ahora llega el "tercero en discordia", el iPad Pro, una tableta con pantalla de 12,9 pulgadas, casi tan grande como mi MacBook Pro de 13 pulgadas con el que trabajo a diario, pero con la diferencia de ser táctil, pesar unos 800 gramos menos, garantizar una autonomía de cerca de diez horas y tener un formato que la hace más manejable que cualquier portátil, por ligero que éste sea.El iPad Pro visto desde diferentes perspectivas. La imagen de arriba, donde se ve el Apple Pencil antes de pulsar sobre el icono de una app, no debe confundirnos. Apple no ha creado su Pencil para movernos por el iPad Pro, para eso están nuestros dedos y los diferentes gestos que empleamos. El Apple Pencil es una herramienta de dibujo que admite todo tipo de trazos y permite aplicar infinidad de efectos. Portátil vs iPad Pro ¿Quiero decir con el párrafo anterior que el iPad Pro puede sustituir a mi MacBook Pro de 13 pulgadas? Aunque me hubiera gustado, no es así, si bien nunca ha estado más cerca un iPad de "jubilar" a los MacBook, tal como Microsoft ha logrado con la Surface Pro 4 con otros portátiles Windows solo con el [¿pequeño?] detalle de optar por Windows 10 Pro como sistema operativo.La gente de Microsoft, que nunca ha tenido al hardware como principal fuente de ingresos, aunque tampoco lo ha dejado de lado, no ha mostrado reparo en diseñar a Surface como un sustituto de los portátiles, y por eso ha tomado el camino directo apostando por Windows 10, procesadores (Intel) y otros componentes que perfectamente encontramos en portátiles de cualquiera de los fabricantes que todos tenemos en mente.Ficha técnicaFabricante: Apple Modelo: iPad Pro Pantalla: Retina de 12,9 pulgadas Resolución: 2.732 x 2.048 a 264 p/p Chip: A9X. Coprocesador de movimiento M9 Capacidad: 32 GB / 128 GB Cámara iSight: 8 mpx Cámara frontal: 1,2 mpx Batería: Navegación hasta 10 horas con 3G, LTE o WiFi Alto/Ancho/Grosor: 30,57 x 22,06 x 0,69 cm Peso: 713 gramos (WiFi), 723 gramos (WiFi+Cellular) Colores: plata, oro y gris espacial Apple.es Precio: Desde 899 eurosPor su parte, Apple siempre llevó al iPad por la senda de los procesadores ARM, con el A9X y el coprocesador de movimiento M9 del iPad Pro como máximo exponente, y principalmente por el camino marcado por iOS desde que se presentó con el primer iPhone.No seré yo quien critique a iOS y mucho menos al ecosistema de apps nacido alrededor de este sistema operativo. Las diferentes actualizaciones que ha tenido y todas las apps que podemos encontrar en la App Store demuestran su buena salud, pero es que además es una parte fundamental del éxito de dispositivos como iPhone, iPod touch o iPad.Sin embargo, en el caso del iPad Pro, iOS no es Windows 10 Pro, ni tampoco OS X El Capitan (o una versión especial de OS X). La pantalla, la velocidad de proceso, el almacenamiento, el teclado opcional... del iPad Pro están a la altura de otros portátiles, pero el sistema operativo, conceptualmente hablando, no pretende ser igual que su "hermano mayor". iPad Pro, ¿el primer paso para convergencia? Desde el mismo día que Tim Cook presentó al iPad Pro, el máximo responsable de Apple quiso dejar claro que no habrá fusión entre iPad y MacBook y que la estrategia seguida por Microsoft con Surface no le parece acertada, por lo menos para los intereses de Apple.Tim Cook afirma que los clientes de Apple no están buscando la convergencia entre MacBook y iPad, y que la diferencia entre los procesadores x86 de Intel y los de la "serie A" de los diferentes iPad es mucho menor de lo que nunca ha sido. Tim Cook se reafirma en su intención de hacer la mejor tableta del mundo y el mejor MacBook del mundo, algo que la fusión de ambos evitaría.Es decir, si nos atenemos a la versión oficial de Apple respecto a la convergencia de OS X y iOS (o MacBook y iPad), no pueden decir más claro que nunca se producirá. Sin embargo, sí hay muchos analistas que consideran que los de Cupertino pueden aplicarse el dicho de "donde dije digo, digo Diego" y sorprendernos con una versión de OS X preparada para procesadores ARM. Tanto iOS como OS X comparten la misma base (Darwin), lo que facilitaría mucho las cosas.De todas formas, todo esto son especulaciones. La realidad es que los portátiles MacBook con OS X van por un camino y los iPad, por mucho que ahora haya un nuevo modelo con apellido "Pro", van por otro.Si quitamos la capucha (tapón magnético) del Apple Pencil encontramos el conector Lightning. Al conectarlo al iPad Pro, quedará "unido" a ese iPad Pro de manera que no funcionará en ese iPad Pro otro lápiz diferente hasta que no volvamos a hacer el mismo proceso. Además, podremos cargar el Pencil para obtener hasta 12 horas de autonomía o, si sólo tenemos tiempo para una carga rápida de 15 segundos, trabajar hasta media hora.Apple Pencil y Smart Keyboard El día que Apple nos entregó la unidad de prueba del iPad Pro tuvimos la ocasión de probar el nuevo Smart Keyboard pero en su versión ANSI con distribución de teclas para inglés de EE UU. Por el momento, ésta es la única versión que está disponible, aunque nos consta que en cuestión de 4-5 semanas tendremos un Smart Keyboard con la distribución habitual de teclas de cualquier teclado que se vende en España. A diferencia del teclado opcional que Microsoft vende con su Surface Pro 4, que sí cuenta con trackpad para mover el puntero del ratón por Windows 10 Pro, Apple se olvida de él porque la intención de los de Cupertino no es que el iPad Pro sea un producto como Surface Pro 4 que puede sustituir a un portátil. El iPad Pro tiene una pantalla de grandísima calidad y enorme resolución (2.732 x 2.048 a 264 p/p) por la que nos movemos con gestos táctiles. El propio Jony Ive, máximo responsable de diseño de Apple, confirmaba en una reciente entrevista que "el control táctil es y seguirá siendo un punto fundamental en nuestro sistema operativo y el Pencil no reemplazará al dedo", y aquí añadimos nosotros que el puntero del ratón tampoco. Dicho esto, no hemos mencionado que el Smart Keyboard tiene un precio de 179 euros, aunque existe una funda con teclado retroiluminado de Logitech que está siendo muy bien recibida por los compradores del iPad Pro que cuesta 149,95 euros. En ambos casos, un precio considerable para un complemento que creo importantísimo en un dispositivo que en su versión de 32 GB sólo WiFi cuesta 899 euros y que si se opta por el máximo de gama con 128 GB y versión WiFi+Cellular se vende por 1.229 euros. En el caso de Logitech, no digo nada porque esta empresa no pone el precio del iPad Pro, pero en el Smart Keyboard de Apple, igual un precio inferior para sus clientes habría sido lo apropiado. Cambiando de tercio, una de las grandes novedades del iPad Pro es el Apple Pencil, un "objeto revolucionario con aspecto de lápiz", como dice la publicidad de Apple, que tiene mucha más tecnología dentro de lo que su aspecto podría hacernos pensar. Y si tienes dudas de esto que digo, no te pierdas el vídeo en el que Jony Ive explica todo lo que hay detrás del Pencil (aquí lo puedes ver, tiene subtítulos en castellano). El caso es que el Pencil, que se vende de manera separada por 109 euros, marca la diferencia en el nuevo iPad Pro. La pantalla del iPad Pro renoce perfectamente cuando apoyamos la mano sobre ella al usar el Pencil o si estamos haciendo algún gesto de los habituales con nuestros dedos. Aplicaciones como Paper, Procreate 3, Adobe Comp CC, Adobe Photoshop Fix, Adobe Photoshop Mix, Adobe Photoshop Sketch, AutoCad 360, Canva, Zen Brush 2 o iMovie ya aprovechan las capacidades ofrecidas por el Pencil, que es capaz de, gracias al sensor de su punta, reconocer la presión que estamos ejerciendo. Además, de nuevo otros sensores en la punta calculan el ángulo y la inclinación de la mano para dibujar sombras tal como lo haríamos con un lápiz o carboncillo. Cualquier profesional, estudiante o apasionado que tenga en la imagen, el dibujo o la creatividad expresada con trazos una de sus prioridades va a disfrutar del iPad Pro y va a sacarle verdadero provecho. Si lo tuyo no es el dibujo, creemos que invertir 109 euros en un lápiz que te permita apuntar ideas en la app Notas no merece la pena.No podíamos dejar de comparar a dos competidores que están en boca de todos: Apple iPad Pro y Microsoft Surface Pro 4. Como se puede apreciar, hay ligeras diferencias de tamaño de pantalla (12,9 pulgadas el modelo de Apple y 12,3 pulgadas el de Microsoft) y grosor (6,9 mm del iPad Pro y 8,45 mm para Surface Pro 4).Conclusiones El iPad Pro es un iPad superlativo en múltiples aspectos. Su procesador A9X tiene una CPU 2,5 veces más rápida que el chip A7 y su potencia gráfica es cinco veces mayor que la del A7. Además, se acompaña de una cámara trasera de 8 Mpx con la misma calidad que la del iPad Air 2 (aquí podéis leer el análisis que publicamos en su día), graba vídeo en 1080p HD, dispone de estabilización de vídeo, cuenta con Touch ID (el sensor de identidad por huella dactilar integrado en el botón de inicio) y trabaja con redes WiFi 802.11a/b/g/n/ac y doble banda, así como con 4G LTE en el modelo WiFi+Cellular. Y respecto a su autonomía, alcanza hasta 10 horas si no abusamos de la reproducción de vídeo.El "pero" que le encontramos es que tienes que tener muy claro que eres el usuario adecuado para un equipo como el iPad Pro. Su elevado precio (complementos como el Smart Keyboard o el Pencil, aparte) no es algo banal. Si como hemos dicho es difícil que sustituya tu portátil habitual, no descartes un iPad Air  o un iPad mini si lo que buscas es un tableta fácil de manejar y transportar.Eso sí, un dispositivo como el Pencil y el tamaño de pantalla del iPad Pro, unido a algunas aplicaciones como las que he citado, son suficientes para que cierto tipo de usuario adquiera el iPad Pro.La familia iPad al completo: iPad Pro, iPad Air 2 e iPad mini.
11 comentarios90 shares
11/12/2015Javier Pérez Cortijo
Prueba de rendimiento de Fallout 4 en PC

Prueba de rendimiento de Fallout 4 en PC

TechSpot ha publicado un completo artículo en el que prueban el rendimiento de Fallout 4 en PC, utilizando diferentes configuraciones y midiendo también el impacto del procesador en el desempeño general del juego, lo que nos permite ver que incluso con un equipo inferior a los requisitos mínimos es posible disfrutarlo en 1080p sin complicaciones.Bajo dicha resolución el mínimo deseable es, como vemos, una GTX 750 Ti, aunque para una experiencia totalmente óptima debemos contar con una GTX 960 o superior.Si subimos la resolución a 2K el mínimo recomendable pasa a ser una GTX 960, aunque para una experiencia óptima es recomendable una R9 290 o superior.Finalmente en resoluciones 4K y manteniendo la calidad en ultra podemos decir que es jugable a partir de una R9 290, ya que mantiene medias de 31 FPS y mínimos de 26 FPS, ajustado pero dentro de los límites. Si queremos una experiencia totalmente óptima tendríamos que recurrir a confirguraciones de doble GPU, ya que ni siquiera una GTX 980 Ti consigue mantener el mínimo por encima de los 40 FPS.Repasamos ahora el aprovechamiento que hace el juego de la CPU y las conclusiones son claras, Fallout 4 depende mucho de dos elementos, la presencia de cuatro hilos, aunque no sean núcleos físicos, y el IPC del procesador.Esto implica que los chips de dos núcleos tengan serios problemas para mantener una tasa mínima estable, como el Pentium G3258, y que los procesadores de más de cuatro núcleos no sean realmente aprovechados. Con todo, a partir de un FX-6350 o un Core i3-4130 podremos disfrutarlo sin problemas.Terminamos echando un vistazo al impacto de la velocidad de la memoria RAM en el juego, un aspecto que no suele tener mucha incidencia pero que en Fallout 4 rompe el molde, sobre todo con soluciones Intel.Más información: TechSpot.
23 comentarios19 shares
14/11/2015Isidro Ros
Mala gestión de memoria en CoD Black Ops III, consume hasta 16 GB de RAM

Mala gestión de memoria en CoD Black Ops III, consume hasta 16 GB de RAM

Parece que la última entrega de la conocida franquicia de acción bélica de Activision, Call of Duty Black Ops III, presenta serios problemas de gestión de memoria que llevan al juego a tener un comportamiento verdaderamente extraño, incluso en equipos tope de gama.Todavía no nos hemos recuperado del palo que supuso Batman Arkham Knight en PC y todo apunta a que tenemos un problema similar, aunque al menos no tan exagerado como el fiasco de Rocksteady y Warner Bros, ya que en el caso del nuevo Call of Duty los problemas no son tanto caídas puras de FPS, sino cierres espontáneos y la presencia de una reproducción atrancada, a trompicones, lo que conocemos como stutter.Al parecer incluso en equipos con 12 GB de RAM y una GTX 980 TI el juego tiene tendencia a ocupar toda la RAM y la memoria de vídeo al jugar en ultra y resoluciones de 2.560 x 1.440 píxeles, pero el problema de consumo excesivo de memoria no es exclusivo de dichos ajustes, ya que también se ha dado en configuraciones inferiores.Con el equipo citado y un Core i7 Haswell el nuevo Call of Duty Black Ops III el juego mostraba en las pruebas serios problemas de stutter, algo que desaparecía al utilizar una GTX TITAN X con 12 GB de memoria de vídeo, de los que llegaba a consumir hasta 8,4 GB.En resumen, Call of Duty Black Ops III registra consumos de hasta 12 GB de RAM y 8,4 GB de VRAM, una verdadera locura que deja claro, en resumen, que Activision no ha hecho los deberes y que el juego viene con serios problemas de gestión de memoria.Según la fuente de la noticia sólo consiguieron que el juego funcionara con total fluidez al aumentar la RAM hasta los 16 GB, una auténtica locura.Más información: TechPowerUP!
19 comentarios329 shares
06/11/2015Isidro Ros
[ ]