GPU » MuyComputer
[ GPU ]
NVIDIA presenta Titan V, la GPU más potente jamás creada

NVIDIA presenta Titan V, la GPU más potente jamás creada

NVIDIA ha presentado la Titan V, la tarjeta gráfica más potente jamás creada según promociona el gigante verde y la primera con "grado de consumo-cliente PC" que llega al mercado bajo la nueva arquitectura 'Volta'.Nos cuesta hablar de "consumo" de una tarjeta que cuesta 2.999 dólares, pero así encuadra NVIDIA este desarrollo seguramente para separarla de la serie Tesla. Obviamente, está diseñada para computación de alto rendimiento e investigación científica con especialización en Inteligencia Artificial.La Titan V está fabricada por la foundry TSMC en procesos tecnológicos FinFET+ de 12 nanómetros. Tiene 21.000 millones de transistores y una potencia de 110 teraFLOP. Está basada en el núcleo gráfico GV100 (el mismo que motoriza la Tesla V100 para HPC) y cuenta con un diseño multi-chip que incluye la die de la GPU y tres módulos para memoria HBM2.Cuenta con la friolera de 5.120 núcleos CUDA (distribuidos en 80 multiprocesadores de transmisión y 6 clústeres de procesamiento gráfico) y 320 unidades de texturas o TMU. También incluye 640 núcleos "Tensor", unidades especializadas en procesamiento neural, aprendizaje profundo e Inteligencia Artificial.La frecuencia base del núcleo gráfico está fijada en 1.200 MHz, mientras que en modo acelerado (boost) podrá alcanzar 1.455 MHz. Dispone de 12 Gbytes de memoria dedicada HBM2 en una interfaz de 3.072 bits, con frecuencia de 850 MHz para un ancho de banda de 652.8 GB/s.La tarjeta obtiene la energía de dos conectores PCIe de 6 y 8 pines, mientras que sus salidas de vídeo son tres Display Port y un HDMI. Su TDP es de 250 vatios y se recomienda una fuente de alimentación de al menos 600 vatios. Cuenta con una carcasa de aluminio fundido, un disipador de calor de cobre y un acabado en color oro que ves en las imágenes.El precio oficial es el referido, 2.999 dólares (3.100 euros en España) y se vende exclusivamente desde la tienda on-line de NVIDIA. Titan V deja la puerta abierta a la llegada de la arquitectura Volta al mercado de consumo con modelos para juego que podamos pagar, si bien no sabemos la prisa de NVIDIA por hacerlo cuando domina el mercado gráfico con las actuales 'Pascal'.
8 comentarios21 shares
08/12/2017Juan Ranchal
NVIDIA y AMD ganan los premios TR Awards 2017 a la mejor GPU y CPU

NVIDIA y AMD ganan los premios TR Awards 2017 a la mejor GPU y CPU

Los premios TR Awards 2017 a la mejor GPU y CPU se han repartido entre NVIDIA y AMD, dos grandes que han presentado soluciones muy interesantes este año y que son rivales directos.El premio a la mejor GPU ha ido a parar a la GTX 1080 TI, una tarjeta gráfica de alto rendimiento que ha sido diseñada para jugar en resoluciones 4K y que ofrece una potencia enorme a un precio "razonable" (se puede encontrar por unos 730 euros).Dicha solución gráfica está basada en el núcleo gráfico GP102 y cuenta con 3.584 shaders, 224 unidades de texturizado, 88 unidades de rasterizado, bus de 352 bits y suma 11 GB de memoria GDDR5X.Por su parte el premio a la mejor CPU ha ido a parar a Ryzen, una generación de procesadores con los que AMD ha disipado todos los fantasmas que pululaban a su alrededor tras los malos resultados de los FX basados en la arquitectura Bulldozer.Con los procesadores Ryzen la compañía de Sunnyvale ha llevado a cabo una aproximación diferente en la que nos encontramos con dos unidades CCX que suman ocho núcleos (cuatro núcleos en cada una de ellas) que están conectadas entre sí a través de la tecnología Infinity Fabric.Esa arquitectura ha permitido unos precios asequibles y un alto conteo de núcleos, que unido a la mejora de rendimiento bruto los ha colocado en una posición muy competitiva.No podemos terminar sin recordar que AMD también se ha llevado el premio TR Awards 2017 a la mejor marca del año, todo un reconocimiento a uno de los mejores años de la firma de Sunnyvale.Más información: WCCFTech.
6 comentarios13 shares
16/11/2017Isidro Ros
Así es el nuevo MCM con CPU Intel y GPU AMD montado sobre una placa

Así es el nuevo MCM con CPU Intel y GPU AMD montado sobre una placa

Hace poco os hablamos de los nuevos MCM con CPU Intel y GPU AMD, una solución muy interesante que confirmaba una larga racha de rumores que ya apuntaron a esa inesperada alianza entre dos grandes rivales.El resultado ha sido sorprendente y no hablamos por hablar. Si se cumplen las especificaciones que vimos en este artículo y llega al mercado esa solución tope de gama podríamos vivir una auténtica revolución, ya que tendríamos equipos más delgados y compactos capaces de ofrecer un excelente rendimiento tanto en aplicaciones generales como en juegos.Lo dicho sería posible gracias a esa CPU de cuatro núcleos y ocho hilos basada en Coffee Lake y a la GPU Radeon con 1.536 shaders y 4 GB de HBM2 integrada que apuntan las primeras filtraciones, unas especificaciones suficientes para disfrutar de juegos actuales en 1080p y calidades muy altas sin problemas.Mientras esperamos a tener más detalles hemos podido encontrar la primera imagen de un MCM con CPU Intel y GPU AMD montado en una placa base y sí, tiene un tamaño enorme, pero es comprensible teniendo en cuenta todos los componentes que integra.En la imagen podéis ver el encapsulado de la CPU Core de Intel justo a la izquierda, mientras que en la zona de la derecha queda la GPU Radeon y el encapsulado con 4 GB de HBM2, una memoria que a diferencia de la GDDR5 y GDDR5X está apilada en 3D (vertical).Ambos componentes se comunican a través de una interfaz PCIe Gen 3.0. Se espera que los primeros productos basados en estas nuevas soluciones empiecen a llegar al mercado durante el primer trimestre de 2018.Más información: Guru3D.
8 comentarios160 shares
10/11/2017Isidro Ros
La Ley de Moore está muerta, dice el jefe de NVIDIA

La Ley de Moore está muerta, dice el jefe de NVIDIA

La Ley de Moore definió la estrategia de negocios en la industria de semiconductores, permitió la aparición del microprocesador y más tarde del ordenador personal. Una ley (más económica que tecnológica) promulgada el 19 de abril de 1965 por el ingeniero y co-fundador de Intel, Gordon E. Moore, que cumplió 50 años en 2015 y que enuncia que la industria podría reducir las dimensiones del transistor en aproximadamente un 50% a un costo más o menos fijo, produciendo así dos veces más transistores por el mismo costo (o el mismo número por la mitad de su coste).La Ley de Moore ha impulsado la revolución tecnológica de las últimas décadas, pero hay debate sobre su aplicación actual. Cada vez es más difícil cumplirla a medida que nos acercamos a los límites del silicio y no saltemos a otros materiales como el grafeno. De hecho, el mismo Moore no aseguró que durara para siempre. Y como en su inicio, acabará no por tecnología sino por costes.EL CEO y fundador de NVIDIA, Jensen Huang, ha entrado en el debate "arrimando el ascua a su sardina" al asegurar que el poder de cómputo de las GPUs y el declive de la CPU, ha matado ya a la Ley de Moore.Según el jefe de NVIDIA, mientras que el número de transistores de las CPU ha crecido a un ritmo anual del 50 por ciento, el rendimiento de la CPU ha avanzado en sólo un 10 por ciento. Además, asegura que los diseñadores casi no pueden trabajar en arquitecturas avanzadas que empleen instrucciones en paralelo para la CPU y, por tanto, las GPU pronto reemplazarán a las CPUs.NVIDIA dice que los gigantes minoristas chinos Alibaba, Baidu, Tencent, JD.com e iFLYTEK, han desplegado soluciones NVIDIA Volta para soportar sus servicios en nube, mientras que Huawei, Inspur y Lenovo han desplegado servidores HGX basados en sus gráficas.Como era de esperar, Intel no está de acuerdo con estas afirmaciones y esgrime el avance a procesos tecnológicos de 10 nanómetros para extender la Ley de Moore.
14 comentarios183 shares
27/09/2017Juan Ranchal
Diez grandes juegos que puedes disfrutar con una GPU integrada de Intel

Diez grandes juegos que puedes disfrutar con una GPU integrada de Intel

La llegada de los procesadores Core de segunda generación trajo consigo una sorpresa importante más allá de su rendimiento bruto a nivel CPU, ya que la GPU integrada de esos procesadores marcó un avance muy grande frente a las generaciones anteriores e hizo posible jugar a títulos complejos en condiciones relativamente aceptables.Con cada nueva generación de sus GPUs integradas Intel ha ido mejorando gradualmente el rendimiento y ha hecho que sea posible mover incluso juegos relativamente actuales en unas condiciones bastante buenas, lo que ha permitido a muchos usuarios disfrutar de una amplia variedad de títulos sin tener que recurrir a una solución gráfica dedicada.Steam sigue confirmando mes a mes que muchos jugadores siguen recurriendo a su GPU integrada para jugar y también sabemos que muchos de nuestros lectores juegan utilizando una solución integrada de Intel, así que hemos querido hacer este artículo especial en el que os vamos a dejar una selección con diez juegos de primer nivel que podréis disfrutar sin problemas con una GPU integrada Intel HD 520.Antes de empezar con el listado queremos recordaros que dicha GPU se utiliza en procesadores de bajo consumo serie Core 6000, aunque a nivel de especificaciones es casi idéntica a las Intel HD 5500 e Intel HD 615, HD 620 y HD 630.Toda esa generación de GPUs integradas cuenta con 24 unidades de ejecución, pueden utilizar la memoria del sistema en modo de doble canal para acceder a un bus de 128 bits y mejorar el ancho de banda y soportan sin problemas DirectX 11. El soporte de DirectX 12 está presente a partir de las HD 520.Con esto queremos decir que con cualquiera de esas soluciones integradas podréis mover los juegos que vamos a listar a continuación sin problemas, y que la diferencia de rendimiento que existe entre ellas es marginal y deriva únicamente de un pequeño aumento en la velocidad de trabajo del núcleo gráfico.Por otro lado tened en cuenta que el rendimiento final puede variar en función del procesador utilizado aunque en todos los juegos que hemos seleccionado podéis esperar un resultado óptimo incluso con las versiones de bajo consumo (serie U) de Intel, como el Core i5 6200U, siempre que contemos con al menos 8 GB de RAM configurada en doble canal.Sin más entramos en materia. 1-Portal 2Es uno de los mejores juegos que Valve se ha sacado de la manga y por suerte no es nada exigente.A partir de una GPU integrada HD 520 de Intel podemos configurarlo cómodamente en 1080p y utilizar los ajustes en calidad alta sin problemas. La fluidez será total. 2-Batman: Arkham CityEs un juego exigente pero se puede disfrutar sin problemas ajustando la resolución y la calidad gráfica.Con una HD 520 es posible moverlo a 30 FPS bastante estables utilizando una resolución de 768p (1.366 x 768 píxeles), calidad media y desactivando las mejoras de DirectX 11.Al ser un juego de acción en tercera persona con una acción bastante sencilla esos 30 FPS son suficientes. 3-Mass Effect 3Hemos hecho referencia a la tercera entrega por ser la más exigente en términos de potencia gráfica, pero podéis sacar en claro que las tres primeras entregas se pueden jugar de maravilla.Con una resolución de 768p y calidad media podemos jugar sin problemas con una tasa aproximada de entre 30 y 45 FPS.Sí, los fotogramas por segundo varían bastante en función de la acción y de los efectos en pantalla, pero la experiencia es buena. 4-GTA VEs un juego exigente pero está bien optimizado y eso se deja notar, ya que es posible moverlo incluso en configuraciones que podríamos considerar como de gama baja.La GPU integrada HD 520 y un Core i5 6200U pueden moverlo en resolución 768p y los ajustes de calidad en nivel medio manteniendo entre 25 y 30 FPS. 5-CS:GOUno de los juegos más populares del momento y uno de los grandes protagonistas del mundo del deporte electrónico.Se puede jugar sin problemas con una resolución de 768p y calidades medias. A ese nivel se mantiene casi siempre por encima de los 50 FPS. 6-Metal Gear Solid V: The Phantom PainHa sido la gran despedida de Kojima antes de abandonar Konami por la puerta de atrás. Un juego sobresaliente con un buen acabado técnico, aunque bien optimizado.Podemos disfrutarlo en 768p con una mezcla de ajustes de calidad gráfica media-baja para mantener medias entre 25 y 30 FPS. 7-OverwatchSí, el nuevo título estrella de Blizzard funciona sin problemas en una GPU integrada Intel HD 520, siempre que reduzcamos la resolución y los ajustes gráficos.Utilizando una configuración de ajustes medios-bajos, desactivando los reflejos dinámicos y situando la resolución en 768p con un escalado del 50% es posible alcanzar medias de unos 40 FPS. 8-Battlefield 3Este juego de acción bélica en primera persona todavía mantiene un buen apartado gráfico y una jugabilidad excelente.Ha sido superado por Battlefield 4 y Battlefield 1, pero sus requisitos son más asequibles y gracias a ello es posible moverlo sin problemas en 768p con calidades medias a más de 30 FPS. 9-League of LegendsEl juego estrella del mundo del deporte electrónico y uno de los más populares del momento, aunque también uno de los más asequibles a nivel de requisitos.Con una GPU integrada HD 520, un Core i5 6200U y 8 GB de DDR4 podemos disfrutarlo en 1080p y calidad alta con medias de 40 a 70 FPS, aunque os recomiendo optar por calidad media para evitar esos saltos tan grandes en la tasa de fotogramas por segundo. 10-Wolfenstein: The New OrderLa conocida franquicia de id Software volvió a lo grande con esta entrega, que utiliza una versión personalizada del motor gráfico idTech 5.Podemos disfrutarlo en calidad media-baja con resolución 768p y mantener más de 30 FPS.Enlaces de interés: Guías MC.
23 comentarios12 shares
13/08/2017Isidro Ros
NVIDIA quiere integrar varias GPUs en una solución multichip, todo lo que debes saber

NVIDIA quiere integrar varias GPUs en una solución multichip, todo lo que debes saber

Las nuevas generaciones de tarjetas gráficas que han ido llegando al mercado han experimentado un aumento considerable de potencia que llega a superar al que ofrecen varias GPUs basadas en arquitecturas anteriores.Un ejemplo claro lo tenemos en las GTX 1080 TI, que es capaz de rendir al mismo nivel que dos GTX 980. Esto ha sido posible gracias a los cambios de arquitectura y a las reducciones de proceso, que han permitido integrar un mayor conteo de shaders en un único encapsulado sin comprometer consumos ni temperaturas.Sin embargo la situación se está volviendo cada vez más complicada, ya que nos acercamos a los límites del silicio y fabricar chips de gran tamaño no es una alternativa rentable por el impacto que tienen en la superficie de las obleas de silicio. Sobre este tema ya os hablamos en este artículo, así que os recomendamos echarle un ojo antes de seguir leyendo.El caso es que un documento científico ha confirmado que NVIDIA está considerando dar el salto a las soluciones multichip para integrar varias GPUs en un único encapsulado. Con esta medida podría superar los desafíos que plantea el incremento de potencia bajo el tradicional sistema de cambios de arquitectura y reducción de proceso sobre una única GPU.La idea es parecida a lo que vimos en la Tesla K80 con doble GPU, y consisten en montar varios chips en un mismo PCB para aumentar la potencia bruta de la tarjeta gráfica sin recurrir a configuraciones multiGPU tradicionales.Es interesante pero plantea un problema claro, y es que no es nada fácil distribuir de forma eficiente la carga de trabajo entre varias GPUs, un obstáculo que también afecta como sabemos a los procesadores de propósito general que utilizan varios núcleos.Se comenta que para resolver esta cuestión NVIDIA podría apostar por utilizar varias GPUs de menor rendimiento y por tanto más pequeñas y eficientes, que estarían integradas en un único encapsulado y que contarían con conexiones de alta velocidad que les permitirían actuar como si fueran una única unidad de procesamiento gráfico.De momento sólo tenemos datos de simulaciones que demuestran que es un enfoque prometedor, y de hecho AMD también quiere seguir ese camino con sus GPUs Navy, pero todavía queda mucho camino por recorrer y muchas preguntas que resolver.Más información: Techreport.
3 comentarios86 shares
04/07/2017Isidro Ros
Imagination Technologies no podrá seguir sin Apple, se pone en venta

Imagination Technologies no podrá seguir sin Apple, se pone en venta

Ya os adelantamos en MuyMac que Apple tenía pensado desarrollar sus propias GPUs, un movimiento complejo pero interesante que dejaba a Imagination Technologies como la gran perjudicada.La compañía anunció en su momento que tenía pensado vigilar todos los movimientos de Apple para proteger su propiedad intelectual, una respuesta con la que Imagination Technologies adoptada un rol de tipo duro que se acaba de derrumbar de manera contundente.Imagination Technologies decidió poner en venta dos de sus divisiones para capear el temporal, la dedicada a procesadores MIPS y a soluciones de conectividad, pero hoy ha confirmado que está abierta a una operación de venta total, es decir de la compañía en su conjunto. ¿Es una decisión exagerada? Puede que alguno de nuestros lectores así lo crea pero desde una perspectiva realista creemos que no, que es una decisión totalmente razonable. Decimos esto porque los pedidos de Apple a la empresa británica representan casi el 50% de su facturación anual.Dicho de otra forma, la mitad de los ingresos de Imagination Technologies vienen directamente de su relación comercial con Apple, y si aquella se rompe significa que la firma recibirá un golpe tremendo, tanto que podría hundirla directamente.Esto nos permite entender el gran peso que tiene el gigante de Cupertino en el mundillo tecnológico, un tema sobre el que ya os hablamos también en MuyCanal hace unas semanas.Veremos cómo acaba todo esto, pero no nos extrañaría nada que la propia Apple acabe comprando a Imagination Technologies, y puede que en una operación bastante favorable para ellos tras la caída que experimentaron sus acciones.Más información: NextPowerUP!
6 comentarios3 shares
22/06/2017Isidro Ros
Windows 10 Insider añade la GPU al administrador de tareas

Windows 10 Insider añade la GPU al administrador de tareas

El administrador de tareas de Windows es una de las aplicaciones internas que Microsoft mejoró con el lanzamiento de Windows 10. Una herramienta importante a la que profesionales o usuarios avanzados pueden sacarle mucho jugo a la hora de controlar a fondo su equipo.La última versión del sistema en fase de testeo (Windows 10 Insider Preview Build 16226) ha añadido un componente muy interesante al monitor de recursos del administrador de tareas, la GPU.Con esta implementación podremos controlar cada GPU por separado, ver estadísticas de utilización de ellas, la carga de la aceleración por hardware de vídeo 3D, el uso de la memoria dedicada, el uso de la memoria compartida, componentes VR o información básica del controlador, la versión y la fecha de los últimos drivers instalados.Teniendo en cuenta la importancia actual del subsistema gráfico en un equipo informático, sobran los motivos para añadirlo en el administrador de tareas junto a las pestañas de CPU, memoria, almacenamiento o red, ya instaladas. Un añadido muy acertado que ya se puede ver en la última versión de prueba y que suponemos se añadirá de forma general a la próxima versión de Windows.Como sabes, el administrador de tareas de Windows ofrece funciones muy útiles que van más allá de finalizar una aplicación congelada que bloquea el sistema, como uno de los casos de uso más habituales y puede reiniciar el explorador, mostrar el citado monitor de rendimiento y recursos, pueden buscarse procesos sospechosos, administrar aplicaciones de Windows fácilmente o configurar las aplicaciones que se iniciarán en el arranque. Lo tienes todo al detalle en el artículo que te recomendamos.Guía | Cómo aprovechar a fondo el administrador de tareas de Windows 10
3 comentarios100 shares
22/06/2017Juan Ranchal
Samsung también trabaja en su propia GPU, dirá adiós a Mali de ARM

Samsung también trabaja en su propia GPU, dirá adiós a Mali de ARM

El gigante surcoreano ha publicado una oferta de trabajo que confirma que está trabajando en una GPU propia, y que por tanto está avanzando en el desarrollo de un componente fundamental que le permitiría decir adiós a las soluciones Mali de ARM.Os ponemos en situación para entender mejor la noticia. Actualmente Samsung utiliza dos grandes soluciones gráficas en sus dispositivos móviles, Adreno de Qualcomm y Mali de ARM. Las primeras están presentes en chips Snapdragon mientras que las segundas se integran en soluciones Exynos.La compañía surcoreana utiliza CPUs con optimizaciones propias (aunque la base sigue siendo la arquitectura ARM Cortex), una estrategia que sería posible adaptar al sector de las GPUs para dar forma a una solución propia que podría estar basada en modelos ya existentes.Es evidente que para ello Samsung debería disponer de las licencias pertinentes y que en este caso podría llegar a un acuerdo con ARM o con Qualcomm, pero lo interesante es el hecho de que quieren diferenciar sus SoCs a todos los niveles.No tenemos claro si seguirán esa estrategia que hemos dicho, la de mejorar y  personalizar soluciones ya existentes, o si por el contrario apostarán por crear GPUs propias "de verdad", es decir totalmente diseñadas y construidas desde cero.Samsung tiene recursos de sobra para seguir cualquiera de esos dos caminos y no hay duda de que a largo plazo le resultaría más beneficiosa la segunda opción, ya que le permitiría diferenciarse plenamente en el sector móvil de otros fabricantes.Teniendo en cuenta lo competitivo que es dicho mercado todo valor añadido puede marcar una diferencia clara, y tener una GPU propia podría ayudarle a ganar terreno frente a otros vendedores.Más información: WCCFTech.
3 comentarios29 shares
23/05/2017Isidro Ros
Apple desarrolla su propia GPU para iPhone e iPad

Apple desarrolla su propia GPU para iPhone e iPad

Apple está preparando su propia GPU para iPhone e iPad, dejando a un lado los chips Power VR que ha venido utilizando en sus SoCs en una línea de tiempo que va de 15 a los 24 meses.El anuncio ha llegado de la misma compañía especializada en gráficos detrás de los Power VR, Imagination Technologies Group, y ha provocado un desplome brutal de sus acciones, un 70%, debido a la gran dependencia de Apple.Como sabes, los de Cupertino diseñan hasta el último detalle de sus SoCs de movilidad (Apple Ax) apoyados en la compañía de semiconductores PA Semi adquirida en 2008 e incorporando CPUs con licencia ARM, componentes como módem y radios de Qualcomm o Intel y el procesador gráfico Power VR mencionado. Posteriormente, TSMC o Samsung lo fabrican.La nueva GPU para iPhone permitiría ahorrar en el pago de royalties, aunque Imagination dice que no será posible crear un procesador gráfico sin una propiedad intelectual qu compite con Mali, Adreno o el Tegra de NVIDIA. Sin embargo, creemos que -más que dinero- el interés de Apple  es evitar la dependencia de la tecnología de terceros y lograr una integración aún mayor con su software.Apple también podría estar preparando su entrada en el terreno de la Realidad Virtual para lo que será clave la GPU. Lo siguiente sería algo de lo que llevamos años hablando: el uso de arquitectura ARM en sus ordenadores.El "rumor" se cumplió en parte cuando el pasado octubre conocimos el Apple T1, el primer procesador ARM usado en un Mac, que Apple ha incluido en el portátil MacBook Pro con la barra Touch Bar. Trabaja junto al procesador Intel y se ocupa de tareas secundarias como la seguridad para el sensor de identificación táctil, la cámara, el almacenamiento de contraseñas y la misma Touch Bar.La nueva GPU para iPhone e iPad es más importante por todo lo que implica. Estaría disponible dentro de 18-24 meses.
1 comentario4 shares
04/04/2017Juan Ranchal
Intel Core i7 7700K vs A10 7700K: Comparativa de GPUs integradas

Intel Core i7 7700K vs A10 7700K: Comparativa de GPUs integradas

WCCFTech ha publicado una comparativa en vídeo donde analizan el rendimiento de las GPUs integradas en las soluciones Core i7 7700K de Intel y A10 7700K de AMD, dos procesadores que a pesar de tener la misma numeración se encuadran en gamas muy distintas.Antes de nada vamos a hacer un resumen de especificaciones para saber qué ofrece cada uno:Core i7 7700K: su CPU es de última generación y está fabricada en 14 nm. Suma cuatro núcleos y ocho hilos a 4,2 GHz-4,5 GHz en modo normal y turbo y tiene una GPU integrada HD 630 con 24 unidades de ejecución a 1.150 MHz. Su precio es de 387 euros. AMD A10-7700K: su CPU está basada en la arquitectura Steamroller y fabricada en proceso de 28 nm. Tiene cuatro núcleos a 3,4 GHz-3,8 GHz en modo normal y turbo, y viene acompañada de una GPU Radeon R7 con 384 shaders a 720 MHz. Su precio es de 85,59 euros.Como vemos el primero es mucho más potente a nivel de CPU, cosa que obviamente se deja notar en la enorme diferencia de precio que separa a ambas soluciones, ¿pero qué hay del rendimiento a nivel GPU?En el vídeo queda patente que Intel ha mejorado mucho el rendimiento de sus soluciones gráficas integradas, tanto que esa HD 630 rinde casi al mismo nivel que la Radeon R7 en 720p y calidad baja. Sin embargo la segunda ofrece unas tasas de fotogramas mínimos más altas, lo que se traduce en una experiencia de juego más estable.Por otro lado la Intel HD 630 presenta algunos errores gráficos en ciertos juegos que no ocurren en la Radeon R7, algo que sin duda debe estar ocasionado por un problema con los drivers.De todo esto podemos sacar en claro que las APUs de AMD se mantienen como una muy buena opción para montar equipos de bajo coste centrados en juegos, y que las soluciones gráficas dedicadas de Intel siguen avanzando y son totalmente viables para jugar en HD.Más información: WCCFTech.
12 comentarios278 shares
23/01/2017Isidro Ros
AMD todavía no ha contado todos los secretos de su GPU Vega

AMD todavía no ha contado todos los secretos de su GPU Vega

La GPU Vega de AMD fue una de las grandes protagonistas del pasado CES, un evento en el que el gigante de Sunnyvale ofreció demostraciones sobre juegos reales y dejó ver un prototipo basado en dicho núcleo gráfico.También ofreció una presentación bastante completa que ya os contamos en esta noticia, y explicó algunas de las novedades más importantes que introducirá Vega a nivel de arquitectura en su nueva generación de tarjetas gráficas.Gracias a una reciente entrevista que han conseguido los chicos de RedGamingTech con Scott Wasson, mánager de márketing de producto en AMD, hemos podido confirmar que todavía hay cosas sobre Vega que no conocemos, sorpresas que la firma de Sunnyvale tiene reservadas probablemente para el evento de presentación oficial.El vídeo también nos deja otra información interesante, como por ejemplo que la arquitectura Vega podría dar vida a una generación gráfica completa, es decir, a varios modelos situados en gamas distintas y con precios y prestaciones diferentes.Creo que es imprescindible hacer dos puntualizaciones antes de dejaros con el vídeo de la entrevista. La primera es que aunque los avances que supone Vega frente a la generación anterior son realmente interesantes y tienen un potencial enorme todo depende en ultima instancia de los desarrolladores, una realidad que hoy está de candente actualidad y no para bien precisamente, ya que la optimización y el aprovechamiento de las últimas tecnologías en el desarrollo de juegos para PC brilla por su ausencia en al mayoría de los casos.Dicho de otra forma, de nada sirven las mejoras a nivel de arquitectura si los desarrolladores no las aprovechan y siguen tirando de APIs "obsoletas".Por otro lado también debemos tener en cuenta que la posibilidad de que acabemos viendo una gama completa de tarjetas gráficas basadas en Vega es algo muy positivo, ya que supondría una renovación completa y pondría tecnología de última generación al alcance de todos los bolsillos.Más información: Videocardz.
9 comentarios28 shares
19/01/2017Isidro Ros
Intel podría utilizar tecnología de AMD en sus próximas gráficas integradas

Intel podría utilizar tecnología de AMD en sus próximas gráficas integradas

El jefe de HardOCP, una de las fuentes más veteranas dentro del mundillo tecnológico, ha confirmado que Intel ha llegado a un acuerdo con AMD para utilizar tecnología del grupo Radeon en sus próximas gráficas integradas, algo que ya adelantamos en esta noticia.Es importante dejar claro que hablamos de un supuesto acuerdo por el cual el gigante del chip se hace con las pertinentes licencias que le permitirán acceder a las tecnologías gráficas de dicho grupo, que como decimos podrá utilizar sin problemas en sus nuevas soluciones gráficas integradas. Matizamos esto porque no se trata de una operación de compra, como llegaron a entender erróneamente algunos en un principio, sino de la suscripción de licencias temporales.La información por desgracia es bastante escasa ya que no hay un comunicado oficial, pero podemos imaginar que la firma de Santa Clara se habría visto obligada a tomar esta decisión para mantener la competitividad de sus futuras soluciones gráficas.No sabemos qué habría obtenido AMD como contrapartida. En principio lo más normal es que haya sido dinero, pero cabe la posibilidad de que hayan podido optar por un cruce de licencias de patentes que les permita utilizar tecnología de Intel sin coste.En cualquier caso iremos viendo cómo evolucionan las próximas GPUs integradas de Intel, y de esa evolución podremos sacar conclusiones claras e interesantesMás información: TweakTown.
16 comentarios263 shares
06/12/2016Isidro Ros
El Exynos 8895 del Galaxy S8 utilizaría una GPU Mali-G71

El Exynos 8895 del Galaxy S8 utilizaría una GPU Mali-G71

Algunos rumores han sugerido que el lanzamiento del Galaxy S8 se podría producir antes de lo esperado para ayudar a contrarrestar los efectos negativos que ha tenido el problema de las baterías que ha lastrado las ventas del Galaxy Note 7, cosa que desde luego tiene sentido pero carece de confirmación oficial.Dejamos a un lado esos rumores para centrarnos en uno más interesante que habla sobre las posibles especificaciones de dicho terminal, en concreto sobre su GPU, que en teoría sería una Mali-G71 e iría integrada en el nuevo SoC Exynos 8895 del gigante surcoreano.Estamos hablando de un núcleo gráfico que sería capaz de ofrecer hasta un 80% más de potencia que la Mali-T880 de doce núcleos gráficos, por lo que supondría un aumento importante a nivel de rendimiento frente a la generación actual.La Mali-G71 estará fabricada en proceso de 16nm, será compatible con la API Vulkan, OpenGL ES 3.2, GPU Compute y Android RenderScript, un soporte bastante completo.A nivel de especificaciones se habla de una frecuencia de trabajo de 850 MHz y una tasa máxima de rellenado de píxeles de 27.2Gpix/s.Como sabemos dicho chip también montará una CPU con cuatro núcleos de alto rendimiento personalizados, además de un bloque de cuatro núcleos eficientes que probablemente mantenga la base Cortex-A53. Si se cumplen las últimas informaciones el procesador estaría fabricado en proceso de 10nm.Más información: GSMArena.
2 comentarios2 shares
24/09/2016Isidro Ros
¿Ha cancelado Intel sus GPUs Iris Pro? Todo parece indicar que sí

¿Ha cancelado Intel sus GPUs Iris Pro? Todo parece indicar que sí

Un rumor que está cogiendo bastante fuerza asegura que Intel habría dado carpetazo a sus GPUs Iris Pro, un movimiento que en principio no parece tener sentido pero que entenderemos mejor cuando analicemos el tema un poco más a fondo.Antes de nada la información del rumor. En teoría ni Cannonlake ni Coffee Lake utilizarían GPUs Iris Pro y se apoyan sobre el hecho de que no hay ni rastro de ellas en las hojas de ruta que se han ido filtrando.De momento todo lo que se diga en este sentido es especulación pero debemos reconocer que el abandono de dichas soluciones gráficas tiene sentido y por un motivo muy sencillo, su enfoque no estaba bien planteado y las hacía innecesarias.Me explico, las GPUs Iris Pro de Intel han estado siempre reservadas a procesadores de muy alto rendimiento que normalmente sólo utilizan los usuarios más exigentes, y por lo general éstos prefieren optar por una solución gráfica dedicada de mayor potencia.Esto no quiere decir que la serie Iris Pro sea mala, de hecho es todo lo contrario, ya que con ella el gigante del chip ha demostrado que puede competir con las soluciones gráficas de gama básica de NVIDIA y AMD, pero utilizarlas en procesadores de gama alta sí es una mala idea.Por contra si Intel las hubiera integrado en CPUs Pentium y Core i3 habría dado un importante golpe sobre la mesa, incluso aunque ello hubiera supuesto incrementar el precio final de estos procesadores.Con ese planteamiento habría sido posible ver por ejemplo portátiles de bajo precio con procesadores Core i3 y una Iris Pro con capacidad suficiente para jugar a 720p con unas garantías razonables.Ha quedado claro desde el inicio pero os recordamos que nada de lo dicho tiene confirmación oficial.Más información: DvHardware.
8 comentarios61 shares
23/09/2016Isidro Ros
¿Qué diferencia a una CPU y a una GPU? No te pierdas este vídeo

¿Qué diferencia a una CPU y a una GPU? No te pierdas este vídeo

Todos estamos más o menos familiarizados con términos básicos como CPU y GPU, sabemos que la primera se usa para referirse a un procesador, y la segunda para hablar del núcleo gráfico que actúa como "cerebro" de las tarjetas gráficas.Sin embargo si os preguntamos cuál es la principal diferencia entre una otra y otra probablemente no todos sepáis darnos una respuesta, o al menos no una lo bastante precisa y clara como para que se entienda de verdad qué claves separan a ambas.La gente de Gameranx ha publicado un excelente vídeo con el que resulta muy sencillo comprender esas diferencias sin caer en grandes complicaciones, y que además nos explica de forma simple qué tareas llevan a cabo generalmente una y otra.Haciendo un resumen lo más sencillo posible la GPU está formada por una enorme cantidad de núcleos gráficos, algo que podemos definir casi como "pequeñas CPUs", pero tienen propósitos específicos y sólo consiguen dar lo mejor de sí en grandes cantidades de tareas sencillas, y por tanto en aplicaciones que como los juegos son capaces de aprovechar un alto nivel de paralelizado.Por contra la CPU es un componente multipropósito, que es capaz de manejar una menor cantidad de tareas o hilos al mismo tiempo, pero las mismas pueden ser mucho más complejas y variadas, lo que lo hace indispensable para manejar elementos clave del sistema operativo y de ciertas aplicaciones, como los procesadores de texto.Os pongo un ejemplo para que lo comprendáis mejor, aunque os recomiendo ver el vídeo por completo. Imaginad una fábrica en la que hay mil empleados y cuatro encargados. Esos empleados son los núcleos de la GPU, capaces de hacer en bloque mil tareas sencillas a la vez, mientras que los encargados son el bloque de núcleos de un procesador, que sólo pueden hacer cuatro tareas a la vez pero su complejidad es muy superior, por ejemplo dar indicaciones concretas sobre cómo debe fabricarse una cosa.Ese ejemplo también nos permite entender el tema del multipropósito de la CPU, ya que esos cuatro "encargados", los núcleos del procesador, podrán dar instrucciones a la GPU sobre cualquier cosa.
6 comentarios8 shares
06/06/2016Isidro Ros
No, Apple no prepara un monitor 5K con GPU integrada

No, Apple no prepara un monitor 5K con GPU integrada

Justo esta mañana os habíamos adelantado que Apple podría estar trabajando en un monitor 5K con GPU integrada, el cual se conectaría directamente a través de un puerto Thunderbolt 3 para conseguir un ancho de banda razonable que permita alcanzar un buen nivel de rendimiento.Este es un requisito imprescindible, ya que como sabemos un ancho de banda reducido o una latencia muy alta puede acabar "matando" el rendimiento de cualquier tarjeta gráfica, incluso el de las más potentes, y hacía que toda la información tuviera bastante sentido, pero ahora fuentes de iMore aseguran que todo esto es falso y que no veremos una solución de este tipo por parte de Apple, al menos a corto plazo.¿Qué queremos decir con esto? Pues que aunque la idea es atractiva y no resulta imposible con la tecnología que existe actualmente no vamos a ver nada así este año, y probablemente tampoco el año que viene, aunque tampoco es algo que podamos descartar de forma absoluta.Es inevitable preguntarse si realmente es buena idea lanzar un monitor de estas características, y lo cierto es que no podemos dar una respuesta simplista y directa. Tiene un lado positivo, ya que permitiría dar una alta potencia gráfica a equipos como el MacBook de 12 pulgadas y disponer de una pantalla de alta resolución con la que trabajar.Eso no admite discusión, podría tener su espacio en el mercado, pero al mismo tiempo debemos tener en cuenta que el precio de un producto de este tipo podría ser muy alto, ya que hablamos de un monitor de gran tamaño, con resolución de 5.120 × 2.880 píxeles y que encima tendría una solución gráfica integrada de potencia considerable.¿Cuánto podría costar una solución de este tipo? Probablemente entre los 1.000 y los 1.500 euros, un coste que unido al precio de un Mac básico nos llevaría a un rango de precios demasiado alto que, en definitiva, le quitaría bastante interés.
0 comentarios68 shares
02/06/2016Isidro Ros
Todo lo que debes saber sobre las GPUs integradas de Intel

Todo lo que debes saber sobre las GPUs integradas de Intel

Las GPUs integradas de Intel son hoy una solución viable para muchos usuarios, incluso para aquellos que quieren jugar, ya que el gigante del chip ha logrado una evolución enorme en términos de rendimiento frente a las generaciones más antiguas, como las denostadas y criticadas GMA.Esto es una buena noticia, ya que ha hecho posible la llegada de equipos muy ligeros y con alta autonomía que sin embargo son capaces de ofrecer una potencia gráfica considerable, pero la popularización de esas GPUs integradas ha tenido una consecuencia importante, y es que han surgido muchas gamas y versiones diferentes, algo que ha acabado generando una cierta confusión y que complica la toma de decisiones incluso a los usuarios más expertos.Con este artículo vamos a dar un repaso por los principales modelos de gráficas integradas Intel que podemos encontrar actualmente en el mercado y hablaremos de sus características, soporte y rendimiento, para que así podáis tener una idea más clara de las posibilidades que ofrece cada solución concreta.Esperamos que gracias a ello podáis resolver vuestras dudas y tengáis más claro qué modelo es el que mejor se ajusta a vuestras necesidades. Como siempre cualquier duda podéis dejarla en los comentarios. Consideraciones previas Las GPUs integradas de Intel tienen una serie de particularidades evidentes que las distinguen de otras opciones, como por ejemplo las soluciones homónimas que ofrece AMD y que conocemos como APUs, y que debemos tener muy en cuenta.En ellas no hablamos de shaders, sino de unidades de ejecución, una distinción que es consecuencia de la propia arquitectura que utiliza cada GPU y que no podíamos explicar de forma detallada sin entrar en complicaciones innecesarias.Por ello hemos querido obviar explicaciones complejas y hacer los cálculos por vosotros, y gracias a ello podemos dejaros una base aproximada que os ayudará a entender un poco mejor la cuestión unidades de ejecución y shaders.Fijando un baremo simple es posible decir que 20 unidades de ejecución de la generación Haswell de Intel equivalen aproximadamente a unos 80 ALUs o shaders.Ya lo he dicho pero lo repito, es una cifra aproximada para ayudaros a entender un poco mejor la disparidad que existe entre Intel, NVIDIA y AMD a la hora de expresar las especificaciones de sus diferentes soluciones gráficas, y debéis tener en cuenta que su rendimiento varía con la frecuencia de reloj y que además esa equivalencia cambia con cada generación.También debemos tener claro que las GPUs integradas de Intel vienen con pequeñas cantidades de memoria integrada, pero utilizan RAM del sistema en cantidades fijas, así que su rendimiento se ve afectado por la velocidad y cantidad de la misma.Por otro lado no podemos olvidarnos de que además los modelos superiores traen eDRAM, módulos de memoria muy rápida que consiguen mejorar en gran medida el ancho de banda y reducen el impacto que tienen en el rendimiento los bajos buses de memoria y el uso de RAM "lenta" como memoria gráfica.Generación Haswell Es la generación más antigua de todas las que podemos encontrar actualmente en el mercado, aunque eso no quiere decir que sea directamente una mala opción, sino simplemente que ya ha sido superada por otros modelos más actuales.Podemos encontrarla en los procesadores Core de consumo general serie 4000 de Intel, y también en los Pentium serie 3000 y Celeron serie 1600 y 1800. Los procesadores más potentes vienen acompañados de GPUs integradas de mayor potencia, un detalle que debemos tener en cuenta ya que es una clave fácil de recordar que puede sernos útil.Toda esta gama está fabricada en proceso de 22nm y soporta DirectX 11.1 y Shader 5.0, por lo que permiten arrancar cualquier título actual sin problemas. Sin embargo hay importantes diferencias de rendimiento según la versión que utilicemos, así que os dejamos un resumen ordenado de menor a mayor potencia.HD Graphics 4200: es una versión de bajo consumo que viene con 20 unidades de ejecución y llega a un máximo de 850 MHz. Su rendimiento no da para la mayoría de juegos actuales, pero en algunos menos exigentes es posible jugar en resoluciones muy bajadas y calidad baja. HD Graphics 4400: mantiene las 20 unidades de ejecución y eleva las frecuencias a 1,1 GHz de máximo. Diseñada para ultraportátiles, consigue un rendimiento superior al de la anterior, pero no consigue marcar una gran diferencia. Puede con juegos poco exigentes y bajas resoluciones. HD Graphics 4600: tiene también 20 unidades de ejecución pero fue diseñada para CPUs de escritorio y portátiles de gama alta, lo que permite usar un mayor TDP y eleva las frecuencias a 1.350 MHz de máximo (1,35 GHz). Mejora el rendimiento y ofrece un desempeño razonadamente bueno incluso en juegos como GTA V, siempre que no pasemos de resoluciones HD. HD Graphics 5000: tiene 40 unidades de ejecución y llega a frecuencias de 1,1 GHz. Utilizada sobre todo en procesadores de bajo consumo, tiene un rendimiento parecido al del modelo anterior. Iris Graphics 5100: también con 40 unidades de ejecución pero puede llegar a 1,2 GHz. De nuevo no marca una diferencia sustancial frente a la anterior, se utilizó también en GPUs de bajo consumo. Iris Pro Graphics 5200: tiene 40 unidades de ejecución y 128 MB de memoria eDRAM. Puede llegar a 1,35 GHz y sólo se utilizó en los procesadores para portátil de más alta gama. Su rendimiento varía mucho por tema de drivers, pero en general rinde bien en resoluciones HD, permitiendo ajustes de calidad altos, medios o bajos, según los requisitos de cada juego.Generación Broadwell Ha sido casi una anécdota por la poca vida que ha tenido esta generación, pero dado que llegaron al mercado con cambios importantes y trajeron nuevas GPUs integradas hemos querido tenerlos en cuenta y repasar los detalles más importantes.Podemos encontrarlas en los procesadores Core serie 5000 de consumo general, y también en los Pentium serie 4000 y Celeron serie 3000. Al igual que en el caso anterior los procesadores más potentes traen GPUs de mayor potencia.Esta gama viene fabricada en proceso de 14nm y soporta DirectX 12 (FL 11_1), pero no tienen potencia suficiente como para aprovechar realmente la nueva API gráfica de Microsoft, cosa que debemos tener muy en cuenta.Intel HD Graphics 5300: viene con 24 unidades de ejecución y tiene una frecuencia de hasta 900 MHz. Se usa en CPUs de muy bajo consumo, así que su rendimiento sólo llega para mover juegos poco exigentes y con bajas resoluciones y bajos ajustes de calidad. Intel HD Graphics 6000: trae 48 unidades de ejecución y 64 MB de memoria eDRAM. Puede llegar a 1 GHz de velocidad y se utilizó en CPUs Core i7 de bajo consumo. Su rendimiento es bueno en juegos no demasiado exigentes, siempre que no pasemos de resolución HD. Iris Pro Graphics 6200: suma 48 unidades de ejecución pero eleva la eDRAM a 128MB y la frecuencia a 1,15 GHz. Se utilizó en los Core i7 para portátil tope de gama, y ofrece un rendimiento bastante bueno en resoluciones HD, aunque los ajustes dependen de la exigencia de cada uno.Generación Skylake Es la más actual de las tres que ofrece Intel actualmente, y en ella podemos encontrar soluciones bastante avanzadas que sin duda han elevado el rendimiento a nuevas cuotas, totalmente inimaginables hace unos años en gráficas de éste tipo. Los tope de gama son viables para jugar a un nivel bastante bueno.Esta gama está fabricada en 14nm y ofrece soporte de DirectX 12 (FL 12_1), aunque de nuevo debemos recordar que su potencia no permite un aprovechamiento pleno de esa API. Podemos encontrarlas en los procesadores Core serie 6000 y en los modelos más recientes de Pentium serie 4000 y Celeron serie 3000.Vamos a prescindir de los modelos que vienen a ser casi idénticos a los de la generación anterior, ya que implica repetir de forma innecesaria, y nos centraremos en los que realmente han marcado un cambio.Iris Graphics 540 y 550 GT3e: viene con 48 unidades de ejecución y 64 MB de eDRAM. Son capaces de correr a 1,05 GHz y 1,1 GHz de máximo, respectivamente, y se utilizan en procesadores Core i7 de bajo consumo. Son capaces, por ejemplo, de mover The Division en bajo en HD. Iris Pro Graphics 580 GT4e: vienen con 72 unidades de ejecución y 128 MB de eDRAM. Su frecuencia máxima es de 1 GHz y se utilizan en CPUs tope de gama para portátiles. Su rendimiento es muy bueno, ya que se acerca al de una GT 945M de NVIDIA y es capaz de asegurar un buen rendimiento en juegos actuales exigentes en resoluciones HD y ajustes medios.Todo lo que esté por debajo de ambas soluciones ofrecen rendimientos casi calcados a las Intel HD 5300, que ya explicamos en el apartado anterior.Enlaces de interés: Guías MC.
10 comentarios540 shares
25/05/2016Isidro Ros
CPU y cuello de botella, todo lo que debes saber

CPU y cuello de botella, todo lo que debes saber

Durante todos los años que llevo vinculado al mundo de la tecnología y la informática una de las preguntas que me han hecho con mayor frecuencia ha sido sobre el tema CPU y cuello de botella, una cuestión muy habitual por la frecuencia con la que esa situación se puede producir en un PC, aunque es algo que en realidad resulta más complejo de lo que parece ya que no es posible dar una respuesta breve sin caer en errores.Son muchos los matices a tener en cuenta y por ello hemos querido hacer este artículo especial, en el que hablaremos a fondo sobre ello y veremos todas las claves importantes, desde qué es exactamente el cuello de botella producido a nivel CPU, qué consecuencias implica, sus posibles variantes y cómo podemos evitarlo.Como siempre esperamos que os sea útil y os ayude a resolver muchas dudas, y os animamos a dejar cualquier pregunta que tengáis en los comentarios. Por el principio, ¿qué es el cuello de botella producido por la CPU? Dar respuesta a esta pregunta es algo imprescindible para poder entender el artículo. Decimos que hay cuello de botella y que el mismo lo produce la CPU de nuestro equipo cuando la misma es incapaz de ofrecer un rendimiento a la altura del resto del sistema y por tanto frena a otros componentes, impidiendo que éstos puedan desarrollar todo su potencial.Ponemos un ejemplo sencillo. Tenemos una garrafa grande con una boca enorme capaz de mover un litro de agua por segundo, pero está conectada a través de un embudo que sólo es capaz de pasarle medio litro de agua por segundo. Vemos que hay una ineficiencia clara, en la que el segundo impide a la primera funcionar al máximo de su capacidad.Esa analogía puede pecar de simplista pero ilustra el cuello de botella a nivel CPU de maravilla. Normalmente el componente más afectado por este tipo de cuello de botella suele ser la tarjeta gráfica, ya que depende en gran medida de las operaciones de aquella para poder trabajar a un buen nivel.Así, si tenemos una tarjeta gráfica de última generación pero nuestro procesador no es capaz de seguir su ritmo la primera no recibirá suficientes datos por parte de aquél y quedará "parada", ya que no puede trabajar de forma aislada e independiente, es decir, prescindiendo de la CPU.Cosas que debemos tener muy en cuenta Ahora que sabemos qué es el cuello de botella producido por la CPU podemos entrar a ver algunas consideraciones importantes. Debemos tener claro que responder si un procesador "X" hará cuello de botella a una tarjeta gráfica "Y" no es posible con un simple sí o un no.Antes de empezar esta explicación quiero dejar claro que por lo general siempre tendremos algo de cuello de botella en un nivel o en otro, y no sólo porque es muy difícil montar un equipo perfectamente complementado, sino porque además las particularidades del software contribuyen a hacer que sea casi imposible.Vamos a verlo de forma detallada. Si alguien me pregunta si un FX 8350 hará cuello de botella a una GTX 970 debería decir que en general no, que con esa combinación no tendremos problemas importantes en este sentido y que podremos aprovechar bastante bien ambos componentes.Sin embargo no es una respuesta universal ni definitiva, ya que en algunos casos tendremos cuellos de botella. Utilizamos tres juegos como ejemplo, Battlefield 4, Starcraft 2 y Guild Wars 2. Con el primero el cuello de botella sería mínimo, gracias a que aprovecha procesadores multinúcleo y con ello compensa el menor IPC del FX 8350 comparado con CPUs Intel actuales.Por contra, en Starcraft 2 y Guild Wars 2 sí tendríamos un cuello de botella claro. En el primero porque no utiliza más de dos núcleos y tira mucho de IPC, mientras que en el segundo se produciría porque no aprovecha adecuadamente CPUs de más de cuatro núcleos y también necesita mucho IPC, sobre todo para mantener mínimos estables y evitar picos muy bajos.Errores comunes y como evitarlos Tendemos a pensar que lo que importa es sobre todo la tarjeta gráfica y por ello en muchas ocasiones descuidamos el procesador, un error muy habitual que como vemos puede jugarnos una mala pasada.Ten en cuenta que por lo general el procesador se actualiza con menor frecuencia que la tarjeta gráfica, y que su impacto en el rendimiento es muy grande y es mucho más complicado intentar mejorarlo si el mismo es insuficiente. Me explico.Si tu tarjeta gráfica pierde fuelle en juegos puedes bajar la resolución y tocar los ajustes gráficos para hacer un apaño y conseguir fluidez, pero si el problema está en la CPU eso normalmente no basta, ya que sólo hay ciertos ajustes gráficos concretos que tienen impacto en el procesador y no consiguen milagros.Sé lo que alguno estará pensando, puedes hacer overclock. Efectivamente es una opción, pero es compleja, entraña riesgos y de nuevo tampoco es capaz de obrar milagros.Otro error habitual es creer que un determinado procesador nunca hará cuello de botella, como los Core i5, pero la realidad es distinta ya que como adelantamos depende mucho de cada juego. Así, hay títulos como ARMA III que son auténticos devoradores de recursos y en los que podremos tener cuello de botella incluso con dichas CPUs, y luego hay otros que simplemente están tan mal hechos que ni siquiera con el procesador más potente del mercado podremos evitar un cierto cuello de botella, como por ejemplo Watch Dogs de Ubisoft. Notas finales De todo lo dicho debemos sacar en claro que es inevitable tener cuello de botella entre los componentes de un PC, lo único que podemos hacer es intentar reducirlos a la mínima expresión, y para ello debemos apostar por una elección equilibrada de componentes.Para ello es necesario saber qué pretendemos conseguir o qué esperamos de nuestro equipo. Si queremos jugar a todo lo actual en 1080p con garantías podemos decir que en general lo mejor es apostar por un procesador Intel Haswell Core i5 o superior y una tarjeta gráfica tipo GTX 970 o R9 390.Por contra si queremos jugar a 720p podríamos funcionar sin problemas con un Core i3 Haswell o superior y una GTX 750 TI o una R7 370.Ambos ejemplos son dos equipos que estarían compensados tanto a nivel CPU como GPU, aunque eso no implica como anticipamos que no vayan a sufrir cuellos de botella, sino que los mismos serán mínimos, que en general disfrutaremos de un buen rendimiento y que estarán bien aprovechados.Enlaces de interés: Guías MC.
72 comentarios13 shares
18/05/2016Isidro Ros
[ ]