real
time web analytics
NVIDIA » MuyComputer
[ NVIDIA ]
GeForce GTX 650 TI frente a GeForce GT 1030, ¿supone alguna mejora?

GeForce GTX 650 TI frente a GeForce GT 1030, ¿supone alguna mejora?

NJ Tech ha publicado un interesante vídeo que nos permite comparar dos tarjetas gráficas muy diferentes, la GeForce GTX 650 TI y la GeForce GT 1030. La primera fue uno de los modelos de gama media más vendidos en 2012. Está basada en la arquitectura Kepler, tiene 768 shaders, 64 unidades de texturizado, 16 unidades de rasterizado, bus de 128 bits, 1 GB de GDDR5 y un TDP de 110W. Trabaja a 928 MHz en la GPU y 5.400 MHz efectivos en la memoria. Por contra la GeForce GT 1030 es una solución actual de gama baja. Está basada en la arquitectura Pascal, tiene 384 shaders, 24 unidades de texturizado, 8 unidades de rasterizado, bus de 64 bits, 2 GB de GDDR5 y un TDP de 30W. Trabaja a 1.228 MHz-1.468 MHz en la GPU (modo normal y turbo) y 6.000 MHz efectivos en la memoria. A simple vista puede parecer que la primera es mejor pero si vemos los resultados que aparecen en el vídeo nos daremos cuenta de que no. Gracias a las mejoras que introduce la arquitectura Pascal frente a Kepler, a ese gigabyte extra de memoria y a sus mayores frecuencias de trabajo la GeForce GT 1030 supera de forma contundente a la GTX 650 TI. Podemos sacar en claro que dicha tarjeta gráfica supone una mejora importante, así que puede ser una buena opción para aquellos que tengan fuentes de alimentación poco potentes y quieran jugar en resoluciones 900p e inferiores. Os recordamos que para jugar en 1080p deberíais poner la mirada como mínimo en una GTX 1050 de 2 GB o en una Radeon RX 560 de 4 GB. El nivel óptimo para dicha resolución está en una RX 470-570 de 4 GB o una GTX 1060 de 3 GB.
3 comentarios77 shares
16/07/2017Isidro Ros
NVIDIA quiere integrar varias GPUs en una solución multichip, todo lo que debes saber

NVIDIA quiere integrar varias GPUs en una solución multichip, todo lo que debes saber

Las nuevas generaciones de tarjetas gráficas que han ido llegando al mercado han experimentado un aumento considerable de potencia que llega a superar al que ofrecen varias GPUs basadas en arquitecturas anteriores. Un ejemplo claro lo tenemos en las GTX 1080 TI, que es capaz de rendir al mismo nivel que dos GTX 980. Esto ha sido posible gracias a los cambios de arquitectura y a las reducciones de proceso, que han permitido integrar un mayor conteo de shaders en un único encapsulado sin comprometer consumos ni temperaturas. Sin embargo la situación se está volviendo cada vez más complicada, ya que nos acercamos a los límites del silicio y fabricar chips de gran tamaño no es una alternativa rentable por el impacto que tienen en la superficie de las obleas de silicio. Sobre este tema ya os hablamos en este artículo, así que os recomendamos echarle un ojo antes de seguir leyendo. El caso es que un documento científico ha confirmado que NVIDIA está considerando dar el salto a las soluciones multichip para integrar varias GPUs en un único encapsulado. Con esta medida podría superar los desafíos que plantea el incremento de potencia bajo el tradicional sistema de cambios de arquitectura y reducción de proceso sobre una única GPU. La idea es parecida a lo que vimos en la Tesla K80 con doble GPU, y consisten en montar varios chips en un mismo PCB para aumentar la potencia bruta de la tarjeta gráfica sin recurrir a configuraciones multiGPU tradicionales. Es interesante pero plantea un problema claro, y es que no es nada fácil distribuir de forma eficiente la carga de trabajo entre varias GPUs, un obstáculo que también afecta como sabemos a los procesadores de propósito general que utilizan varios núcleos. Se comenta que para resolver esta cuestión NVIDIA podría apostar por utilizar varias GPUs de menor rendimiento y por tanto más pequeñas y eficientes, que estarían integradas en un único encapsulado y que contarían con conexiones de alta velocidad que les permitirían actuar como si fueran una única unidad de procesamiento gráfico. De momento sólo tenemos datos de simulaciones que demuestran que es un enfoque prometedor, y de hecho AMD también quiere seguir ese camino con sus GPUs Navy, pero todavía queda mucho camino por recorrer y muchas preguntas que resolver. Más información: Techreport.
3 comentarios86 shares
04/07/2017Isidro Ros
Así rinde la GTX 580 de 1,5 GB con el nuevo soporte de DirectX 12

Así rinde la GTX 580 de 1,5 GB con el nuevo soporte de DirectX 12

Ayer vimos que NVIDIA había introducido soporte de DirectX 12 en las GTX serie 400 y 500 con los drivers GeForce 384, una buena noticia que sin embargo nos dejó con la duda del rendimiento que iban a ser capaces de ofrecer bajo dicha API tarjetas gráficas tan míticas como la GTX 580. Hoy gracias a los chicos de WCCFTech podemos dar respuesta a dicha pregunta, ya que han hecho una pequeña prueba de rendimiento de la GTX 580 bajo DirectX 12. Dicha tarjeta gráfica se comercializó en dos versiones, una con 1,5 GB de GDDR5 y otra con 3 GB de GDDR5, pero la segunda fue casi una rareza y sólo han podido probar la primera. Como podemos ver en la primera gráfica la GTX 580 es capaz de mover Battlefield 1 en 1080p y calidad alta sin problemas bajo DirectX 11, ya que consigue una media de más de 35 fotogramas por segundo y en ningún momento baja de los 30 FPS. Sin embargo cuando activamos DirectX 12 el rendimiento decae notablemente haciendo que no se pueda jugar de forma aceptable. No se aprecian mejoras en calidad gráfica que lo justifiquen, así que el beneficio que ofrece el salto a dicha API es nulo. La misma conclusión sacamos cuando vemos los resultados obtenidos en la prueba de rendimiento sintético, ya que la diferencia entre DirectX 11 y DirectX 12 es enorme. En resumen, la GTX 580 es una tarjeta gráfica muy potente que ha aguantado muy bien el paso de los años. Todavía hoy es capaz de mover prácticamente cualquier cosa en 1080p y calidades altas o medias, pero no tiene sentido utilizarla en entornos DirectX 12 hasta que NVIDIA decida optimizar el soporte (si es que llega a hacerlo algún día). Más información: WCCFTech.
7 comentarios10 shares
04/07/2017Isidro Ros
Las GeForce GTX 400 y GTX 500 soportan DirectX 12 con los últimos drivers

Las GeForce GTX 400 y GTX 500 soportan DirectX 12 con los últimos drivers

Tras meses de promesas que quedaron en el aire NVIDIA por fin ha cumplido, las GeForce GTX 400 y GTX 500 soportan DirectX 12 de forma oficial tras la llegada de los drivers serie 384 y superiores. Con esta actualización toda la gama de tarjetas gráficas NVIDIA basadas en la arquitectura Fermi son capaces de ejecutar juegos y aplicaciones en DirectX 12, aunque debemos tener en cuenta que las GeForce GTX 400 y GTX 500 son soluciones gráficas con bastantes años a sus espaldas y que su rendimiento podría ser bastante flojo con dicha API. En cualquier caso es una buena noticia, ya que con este movimiento el gigante verde ha dado una nueva vida a dos de sus generaciones gráficas más populares, no en vano las GTX 460 y GTX 560 se vendieron de maravilla, por eso hoy hay tanto stock en el mercado de segunda mano. Por si tenéis dudas sobre qué tarjetas gráficas se incluyen en el nuevo soporte de DirectX 12 os aclaramos que sólo aquellas que utilicen núcleos gráficos Fermi, es decir las series GF1XX y GF11X, por lo que quedan fuera todas las ediciones de las series GeForce 400 y 500 que son renombres de generaciones anteriores. Esto significa que todas las soluciones gráficas a partir de las GeForce GT 430-GTS 450 y GeForce GT 530-GTX 550 TI se beneficiarán de estos nuevos drivers y de la posibilidad de utilizar DirectX 12 en su nivel 11_0. A efectos comparativos una GeForce GTX 460-560 ofrece un rendimiento a medio camino entre una GTX 650 y una GTX 650 TI, mientras que las soluciones más potentes como las GTX 480 ofrecen un rendimiento ligeramente superior al de una GTX 650 TI Boost. Más información: TechPowerUP!
4 comentarios9 shares
03/07/2017Isidro Ros
Las próximas GTX de consumo seguirán utilizando la arquitectura Pascal

Las próximas GTX de consumo seguirán utilizando la arquitectura Pascal

Fudzilla ha vuelto a la carga refrescando los rumores que aseguraban que NVIDIA mantendrá la arquitectura Pascal en sus próximas soluciones gráficas GeForce para consumo, y que por tanto la serie GTX 20 será una puesta a punto de las actuales GTX 10. Esto tiene sentido bastante sentido, ya que en teoría los de verde habrían reservado la Tesla V100 como solución exclusiva para el mercado profesional y seguirán cubriendo el resto de sectores con una renovación de la arquitectura Pascal que mantendrá las memorias GDDR5X y GDDR5. Pascal ha marcado un salto importante y con permiso de Maxwell se ha convertido en una de las mejores arquitecturas que ha lanzado NVIDIA hasta la fecha. Su alto rendimiento y elevada eficiencia dan fe de ello, así que una nueva generación que mantenga pero pula esa base podría dar resultados muy buenos. En teoría todas las GTX 20 estarán fabricadas en proceso de 12 nm (las GTX 10 debutaron mayoritariamente en proceso de 16 nm) y en los modelos de gama alta y media se podrían utilizar las nuevas memorias GDDR5X con frecuencias de entre 11 GHz y 16 GHz y GDDR5 a 9 GHz. Todavía no tenemos claras las especificaciones definitivas, pero gracias a informaciones anteriores podemos dejar un listado aproximado: GTX 2080: 2.560 shaders, 160 unidades de textura, 64 unidades de rasterizado, bus de 256 bits, 8 GB de GDDR5X a 11 GHz y GPU a 2.000 MHz. GTX 2070: 2.048 shaders, 128 unidades de textura, 64 unidades de rasterizado, bus de 256 bits, 8 GB de GDDR5 a 9 GHz y GPU a 1.800 MHz. GTX 2060: 1.280 shaders, 80 unidades de textura, 48 unidades de rasterizado, bus de 192 bits, 8 GB de GDDR5 a 9 GHz y GPU a 2.000 MHz. GTX 2050: 768 shaders, 48 unidades de textura, 32 unidades de rasterizado, bus de 128 bits, 8 GB de GDDR5 a 8 GHz y GPU a 1.700 MHz.
2 comentarios33 shares
26/06/2017Isidro Ros
Las GTX 1070 son ahora más caras que las GTX 1080, te contamos por qué

Las GTX 1070 son ahora más caras que las GTX 1080, te contamos por qué

El mercado de tarjetas gráficas para consumo general está atravesando una auténtica locura que está empezando a afectar también a las GTX 1070 de NVIDIA, una gama que ha experimentado una subida de precio muy pronunciada durante las últimas semanas. Debido a ese incremento gradual la mayoría de las GTX 1070 son hoy más caras que las GTX 1080, incluso a pesar de que las segundas ofrecen un rendimiento sensiblemente superior. Estoy seguro de que muchos de vosotros ya habréis podido intuir quién ha sido el culpable de este loco cambio de precios y sí habéis acertado, todo se debe al minado de la criptodivisa Ethereum. ¿Y por qué GTX 1070 para minar dicha moneda digital? La respuesta es muy sencilla, con las Radeon RX 470-570 y RX 480-580 agotadas las GTX 1070 se han convertido en la mejor opción por su relación rendimiento-consumo, que resulta muy superior a la que pueden ofrecer las GTX 1080 de NVIDIA. En el conocido minorista Newegg las GTX 1070 más económicas son aquellas que montan sistemas de refrigeración líquida porque son totalmente ineficientes en equipos de minado y no tienen tanta demanda. Sin embargo los modelos más sencillos y con menor consumo rondan los 700 dólares mientras que las GTX 1080 se pueden conseguir por 520 dólares. Para que entendáis mejor el "engorde" que han sufrido los precios de dichas tarjetas gráficas os recordamos que las GTX 1070 llegaron al mercado con precio de salida que arrancaba en 379 dólares, lo que significa que hoy cuestan casi el doble. No hay duda de que la locura del minado de monedas digitales está afectando de forma considerable a los consumidores y que los principales fabricantes deberían tomar medidas cuanto antes. La solución más sencilla pasa como sabemos por lanzar tarjetas gráficas diferenciadas y dedicadas especialmente al minado, un tema que ya vimos en este artículo. Más información: DvHardware.
8 comentarios176 shares
25/06/2017Isidro Ros
GeForce GTX 780 Ti frente a GTX 980 Ti y GTX 1080 Ti en 4K

GeForce GTX 780 Ti frente a GTX 980 Ti y GTX 1080 Ti en 4K

En esta nueva comparativa en vídeo CandyLand a puesto frente a frente a las GTX 780 Ti, GTX 980 Ti y GTX 1080 Ti en diferentes juegos utilizando resoluciones 4K, y los resultados son bastante interesantes. Estamos ante tres tarjetas gráficas que fueron en su momento lo mejor de lo mejor, un auténtico objeto de deseo para los usuarios de PC, aunque su precio era prohibitivo y sólo unos pocos pudieron hacerse con ellas desde el primer día. Las GTX 780 Ti, GTX 980 Ti y GTX 1080 Ti pertenecen a tres generaciones diferentes y tienen por tanto unas especificaciones y un rendimiento dispar. Las primeras utilizan el GK110 de NVIDIA basado en Kepler, mientras que las segundas y las terceras utilizan el GM200 (Maxwell) y el GP102 (Pascal). A continuación os dejo un resumen con las especificaciones de cada una. GTX 780 Ti 2.880 shaders. 240 unidades de textura. 48 unidades de rasterizado. Bus de 384 bits. 3 GB de GDDR5. GTX 980 Ti 2.816 shaders. 172 unidades de textura. 96 unidades de rasterizado. Bus de 384 bits. 6 GB de GDDR5. GTX 1080 Ti 3.584 shaders. 224 unidades de textura. 88 unidades de rasterizado. Bus de 352 bits. 11 GB de GDDR5X. Echando un vistazo a los resultados vemos que la GTX 780 TI no es una tarjeta gráfica capaz de ofrecer una buena experiencia en juegos con resolución 4K, salvo que estemos dispuestos a reducir la calidad gráfica de forma considerable para mantener un mínimo de fluidez. La GTX 980 TI marca un gran salto a nivel de rendimiento y logra resultados aceptables, pero la GTX 1080 TI llega a doblar el rendimiento de aquella, lo que la convierte en la mejor opción para disfrutar de una buena experiencia en juegos con resolución 4K sin tener que reducir calidad gráfica.
0 comentarios43 shares
18/06/2017Isidro Ros
NVIDIA regalará Destiny 2 con la compra de una GTX 1080 o GTX 1080 TI

NVIDIA regalará Destiny 2 con la compra de una GTX 1080 o GTX 1080 TI

Es oficial, NVIDIA regalará Destiny 2 por la compra de una GTX 1080 o una GTX 1080 TI, dos tarjetas gráficas que actualmente conforman el tope de gama de la compañía en el sector gráfico de consumo general. Tened en cuenta que cuando decimos que NVIDIA regalará Destiny 2 al comprar una de esas dos tarjetas nos referimos a que los usuarios podrán descargarlo cuando esté disponible, lo que significa que podrán hacerse con dicho título en versión digital y no en versión física. En promociones anteriores los de verde han impuesto la condición de reclamar los juegos a través de GeForce Experience, así que es probable que en esta ocasión repitan y que sea imprescindible utilizar dicha plataforma para conseguir el juego. Destiny 2 es la segunda entrega de un título que llegó únicamente las consolas de pasada y actual generación y que por tanto no tuvimos ocasión de disfrutar en PC. Xbox 360 y PS3 no recibirán este juego, así que ha sido desarrollado con la nueva generación en mente. Esto debería tener consecuencias positivas sobre todo en la calidad gráfica de Destiny 2, aunque la propia Bungie ya dio algunas pistas sobre las limitaciones que enfrentarán las consolas actuales y de las que ni siquiera PS4 Pro estará a salvo. En Xbox One X también correrá a 30 FPS, aunque esperamos que en dicha consola alcance resolución 4K de forma nativa. En PS4 Pro todo apunta a 1440p reescalados a 4K. Por lo que respecta a PC podremos elevar la resolución hasta 4K y tendremos desbloqueada la tasa de fotogramas por segundo, aunque todavía no conocemos los requisitos oficiales que deberemos cumplir para mover Destiny 2 con garantías. Os recordamos que la versión del juego para consolas llegará el 6 de septiembre y la de PC el 24 de octubre. Más información: TweakTown.
0 comentarios16 shares
14/06/2017Isidro Ros
NVIDIA no apostará por la memoria HBM2 con GeForce Volta de consumo

NVIDIA no apostará por la memoria HBM2 con GeForce Volta de consumo

Fudzilla ha publicado una información interesantes sobre las GeForce Volta que le han pasado sus fuentes dentro de la industria. En ella indican que NVIDIA no utilizarla la memoria HBM2 en su próxima generación de soluciones gráficas de consumo general, y que en su lugar se mantendrá fiel a la GDDR5X. El motivo que dan es que es "muy pronto" para utilizar dicho tipo de memoria, y que con la GDDR5X y mejores tecnologías de compresión pueden ofrecer un rendimiento perfecto en toda su línea de soluciones GeForce Volta, siempre teniendo en cuenta que hablamos de los modelos para consumo general. Hacemos esa distinción porque como ya os contamos en esta noticia la Tesla V100 con núcleo gráfico GV100 que anunciaron hace un mes estaba acompañada de 16 GB de HBM2, lo que significa que al menos dentro del mercado profesional sí tienen pensado mantener el uso de ese tipo de memoria gráfica. ¿Es una buena idea? En parte sí, ya que el suministro y los precios de la memoria HBM2 van a ser dos problemas importantes que no se van a resolver a corto plazo, por lo que es comprensible que NVIDIA decida limitar el uso de la misma a su tope de gama para el sector profesional y emplear GDDR5X y GDDR5 en sus demás productos. AMD hará lo mismo ya que como sabemos la Radeon Vega Frontier Edition montará memoria HBM2, aunque a diferencia de los de verde la firma de Sunnyvale tiene pensado mantenerla en su tope de gama para consumo general, la Radeon RX Vega. ¿Y qué pasa con la GDDR6? Pues que no entrará en fase de producción en masa hasta principios de 2018, lo que significa que no tendrá una buena disponibilidad hasta el primer o segundo trimestre de dicho año, así que lo más probable es que no se utilice hasta dentro de un par de generaciones más.
1 comentario29 shares
13/06/2017Isidro Ros
ZOTAC lanza la GeForce GTX 1080 Ti Mini, la más pequeña del mundo

ZOTAC lanza la GeForce GTX 1080 Ti Mini, la más pequeña del mundo

La ensambladora ZOTAC ha confirmado el lanzamiento de la nueva GeForce GTX 1080 Ti Mini, una tarjeta gráfica de alto rendimiento que contiene toda la potencia del núcleo gráfico GP102 en unas medidas muy contenidas, ya que apenas llega a los 21 centímetros de longitud (los modelos convencionales rondan los 30 centímetros). Se trata de la GTX 1080 TI más pequeña que existe hasta el momento, aunque ZOTAC no ha tenido que hacer sacrificios a nivel de rendimiento gracias al sistema de disipación que ha montado sobre la tarjeta. Como podemos ver en las imágenes la GeForce GTX 1080 Ti Mini viene con un radiador de aluminio y dos ventiladores de gran tamaño, una solución que unida a la placa metálica en la parte trasera nos deja un conjunto muy completo y capaz de mantener las temperaturas bajo control. A nivel de especificaciones mantiene todo lo que hace grande a la GTX 1080 TI de NVIDIA: 3.584 shaders. 224 unidades de textura. 88 unidades de rasterizado. Bus de 352 bits. 11 GB de GDDR5X a 11 GHz. La GPU tiene unas frecuencias de 1.506 MHz en modo normal y 1.620 MHz en modo turbo, lo que significa que trabaja a una velocidad mayor que el modelo de referencia (Founders Edition). Aquél funciona a 1.480 MHz-1.582 MHz por defecto. Como se puede ver en la primera imagen ZOTAC ha montado dos conectores de alimentación adicional de 8 pines, lo que significa que necesitamos una fuente bastante potente para poder mover esta tarjeta gráfica con garantías. Por desgracia todavía no tenemos detalles sobre el precio de esta tarjeta, pero en principio debería rondar los 800 euros. Más información: TechPowerUP!
1 comentario64 shares
13/06/2017Isidro Ros
NVIDIA empeoró adrede una demo en SDR para beneficiar al HDR

NVIDIA empeoró adrede una demo en SDR para beneficiar al HDR

En un intento por demostrar el valor que ofrece la tecnología HDR (imágenes de alto rango dinámico) NVIDIA se dejó llevar por la emoción y acabó exagerando las pruebas, ya que hizo que la demostración en SDR (imágenes de rango dinámico estándar) se viera peor de lo que es en realidad. Hardware Canucks tuvo acceso a la configuración de los dos monitores utilizados en la comparativa y pudo comprobar que sus ajustes de brillo, color y contraste eran diferentes. Obvia decir que esto tiene efectos muy serios sobre la calidad de imagen, tanto que cuando se restauraron los valores de fábrica en ambos monitores se pudo comprobar que la demo en SDR lucía mucho mejor comparada con la demostración de NVIDIA. No hay duda de que la comparativa que llevó a cabo NVIDIA no fue justa y que este tipo de cosas son totalmente criticables. Sin embargo también es cierto que la tecnología HDR permite conseguir una mayor calidad de imagen y que mejora el realismo en los videojuegos. ¿Cómo funciona el HDR? La tecnología HDR hace posible conseguir un rango dinámico de luminancias superior entre las zonas más claras y las más oscuras de una imagen. Esto contribuye a mejorar en gran medida la iluminación y el realismo, haciendo que cada imagen presente un aspecto más cercano al que tendría en el mundo real al ser percibida directamente por el ojo humano. En las modalidades más intensivas el HDR permite representar con total realismo diferentes escenas de iluminación, que van desde la luz solar directa hasta los tenues reflejos de fuentes de luz muy alejadas. Más información: TechPowerUP!
15 comentarios4 shares
08/06/2017Isidro Ros
Así es una estación de minado de criptodivisas basada en Pascal de NVIDIA

Así es una estación de minado de criptodivisas basada en Pascal de NVIDIA

Hace unos días os hablamos de la posibilidad de que tanto AMD como NVIDIA comercialicen soluciones gráficas dedicadas para minar criptodivisas, y hoy por fin hemos podido echar un vistazo a fondo a una estación de minado basada en Pascal de NVIDIA. Esta estación de minado monta un total de ocho soluciones gráficas que utilizan el nuevo núcleo GP106-100, una versión de los GP106-400 y GP106-300 que NVIDIA monta en las tarjetas gráficas GTX 1060 de 6 GB y GTX 1060 de 3 GB, respectivamente. Esas ocho soluciones gráficas carecen de conectores de pantalla y además están refrigeradas de forma pasiva, lo que confirma la información que os dimos recientemente. El resto de sus especificaciones se completa con un procesador Celeron Mobile, 4 GB de DDR3 y SSD de 64 GB tipo mSATA. Para que el equipo pueda funcionar correctamente es necesario contar con una fuente de alimentación que tenga una potencia mínima de 1.000 vatios, y que disponga de ocho conectores de alimentación adicional de seis pines. Salta a la vista que se trata de un sistema totalmente adaptado al minado de criptodivisas y que se ha priorizado la reducción de consumo. Esto hace que sea una solución interesante para aquellos que quieran hacer negocio aprovechando el auge de las monedas electrónicas, pero hay que tener en cuenta que al ser una solución tan específica será complicado darle otro uso si el minado deja de ser rentable. Al mismo tiempo las opciones de reventa que presenta si queremos deshacernos de él en algún momento son mínimas, así que optar por una configuración basada en tarjetas gráficas convencionales podría acabar siendo mejor opción. Más información: VideoCardz. [gallery link="file" columns="2" ids="185644,185645"]
6 comentarios27 shares
08/06/2017Isidro Ros
NVIDIA y AMD preparan soluciones gráficas para minar Bitcoins

NVIDIA y AMD preparan soluciones gráficas para minar Bitcoins

Debido a la enorme popularidad que han adquirido las criptodivisas NVIDIA y AMD han decidido preparar una serie de soluciones gráficas para minar Bitcoins, basadas en las arquitecturas actuales que utilizan ambas compañías en sus soluciones de consumo (Pascal y Polaris respectivamente). Todavía no tenemos muchos detalles pero se comenta que esas soluciones gráficas para minar Bitcoins carecerán de cualquier tipo de conector dedicado para pantallas, así como de soporte para funcionar correctamente en juegos y que su garantía podría estar limitada en algunos países a 90 días. Esas desventajas se verán compensadas con un mayor rendimiento en la tareas de minado y un precio más bajo frente a las soluciones equivalentes en consumo general, aunque todavía no se han confirmado cifras concretas así que sólo podemos esperar. ¿Por qué han decidido crear soluciones gráficas para minar Bitcoins? Hay dos grandes razones y la primera es la más sencilla y evidente. El minado de criptodivisas ha recurrido directamente a la potencia que ofrecen las tarjetas gráficas de última generación y representa por tanto un mercado muy suculento que además se encuentra en un crecimiento constante. Esto supone una oportunidad de negocio clara que ni AMD ni NVIDIA quieren desaprovechar, y es totalmente comprensible ya que al fin y al cabo son empresas y su objetivo es vender soluciones gráficas. La segunda razón es menos evidente pero también es fundamental. Hace unos días ya os adelantamos que había una marcada escasez de soluciones gráficas Radeon RX 400 y 500 y que además se habían elevado los precios. Esto se debía a la gran demanda que tenían dichas tarjetas gráficas por parte de los "mineros" de Bitcoin y estaba afectando al consumidor normal. Pues bien, con esas soluciones dedicadas al minado NVIDIA y AMD ponen fin a ese problema y pueden mantener un suministro y unos precios más estables, tanto para los que quieran minar como para los que sólo busquen jugar. Más información: VideoCardz.
4 comentarios84 shares
06/06/2017Isidro Ros
Comparativa de rendimiento: GeForce GT 1030 frente a GTX 750

Comparativa de rendimiento: GeForce GT 1030 frente a GTX 750

La GeForce GT 1030 ha cerrado el catálogo de soluciones de NVIDIA basadas en la arquitectura Pascal, una generación que ha sido bastante completa y que sólo ha dejado un hueco importante en la franja que separa a la GTX 1060 de 6 GB de la GTX 1070 de 8 GB. Sin embargo las flojas especificaciones de la GeForce GT 1030 han generado muchas dudas sobre si ésta realmente sirve o no para jugar, una pregunta a la que vamos a dar respuesta directa con esta comparativa de rendimiento que han publicado los chicos de Benchmark. En ella miden dicha tarjeta gráfica con una GTX 750, una solución que a pesar de su nomenclatura no está basada en Kepler sino en Maxwell (GM107). Para que podáis comparar mejor os dejamos un resumen de especificaciones de ambas tarjetas y luego comentamos los resultados. GeForce GT 1030 384 shaders a una velocidad de 1.227 MHz-1.468 MHz, modo normal y turbo. 24 unidades de texturizado. 8 unidades de rasterizado. Bus de 64 bits con 2 GB de GDDR5 a 6 GHz. TDP de 30W. GeForce GTX 750 512 shaders. 32 unidades de texturizado. 16 unidades de rasterizado. Bus de memoria de 128 bits. 2 GB de GDDR5 a 5 GHz. 1.020 MHz-1.085 MHz en la GPU. TDP de 55W. Como podemos ver en la comparativa la GTX 750 ofrece un rendimiento superior, aunque gracias al salto que supone la arquitectura Pascal y a la enorme diferencia de frecuencias de reloj que presenta la GT 1030 (casi 400 MHz más en la GPU en modo turbo) la diferencia es más pequeña de lo que pensaríamos a simple vista si nos dejamos llevar por las especificaciones de ambas. Podemos sacar en claro que las tarjetas gráficas sirven para jugar sin grandes pretensiones, aunque en relación calidad-precio la GeForce GT 1030 flojea bastante ya que tiene un precio muy cercano al de una RX 460 de 2 GB y rinde bastante menos que aquella.
3 comentarios3 shares
05/06/2017Isidro Ros
Comparativa de rendimiento: GTX 660, GTX 760, GTX 960 y GTX 1060

Comparativa de rendimiento: GTX 660, GTX 760, GTX 960 y GTX 1060

Los chicos de CandyLand han publicado una comparativa en vídeo donde analizan de forma comparada el rendimiento de las GTX 660, GTX 760, GTX 960 y GTX 1060, cuatro tarjetas gráficas que han sido consideradas como gama media y que están basadas en núcleos gráficos de tres generaciones diferentes. Antes de entrar a ver los resultados del vídeo os dejo las especificaciones completas de las GTX 660, GTX 760, GTX 960 y GTX 1060: GTX 660 Núcleo grafico GK106 (Kepler). 960 shaders. 80 unidades de textura. 24 unidades de rasterizado. Bus de 192 bits con 2 GB de GDDR5. GTX 760 Núcleo grafico GK104 (Kepler). 1.152 shaders. 96 unidades de textura. 32 unidades de rasterizado. Bus de 256 bits con 2 GB de GDDR5. GTX 960 Núcleo grafico GM206 (Maxwell). 1.024 shaders. 64 unidades de textura. 32 unidades de rasterizado. Bus de 128 bits con 2 GB de GDDR5. GTX 1060 Núcleo grafico GP106 (Pascal). 1.280 shaders. 80 unidades de textura. 48 unidades de rasterizado. Bus de 192 bits con 6 GB de GDDR5. Echando un vistazo al vídeo nos encontramos con dos partes diferenciadas. En la primera ronda de pruebas se configuran los juegos con el mismo nivel de calidad gráfica en las cuatro tarjetas gráficas, y en la segunda se ajustan en función de la potencia de cada una para mantener medias de más de 60 FPS. Esto nos permite ver tanto la diferencia de potencia bruta de cada una como los sacrificios en calidad gráfica que debemos hacer con ellas si queremos asegurar una fluidez total. Con una GTX 660 o una GTX 760 todavía es posible jugar en resoluciones 1080p de forma aceptable si reducimos la calidad gráfica. La GTX 960 marca un salto importante en rendimiento general y la GTX 1060 juega directamente en otra liga, tanto que podemos considerarla más bien como gama media-alta.
2 comentarios53 shares
04/06/2017Isidro Ros
ASUS anuncia nuevo monitor de 35″ con G-Sync y 200 Hz

ASUS anuncia nuevo monitor de 35″ con G-Sync y 200 Hz

Computex 2017. ASUS ha presentado oficialmente el ROG Swift PG35VQ, un nuevo monitor de 35 pulgadas con resolución de 3.440 x 1.440 píxeles que destaca por ofrecer 200 Hz de tasa máxima de refresco y tecnología G-Sync para asegurar una experiencia totalmente fluida. Como habréis podido anticipar por la resolución de pantalla este nuevo monitor utiliza el formato ultra panorámico (21:9), pero además presenta un acabado curvado (1800R) que potencia la inmersión en nuestros juegos favoritos. Para asegurar una buena calidad de imagen ASUS ha utilizado los paneles de AU Optronics con tecnología Quantum Dot Enhancement Film, que mejora considerablemente la representación y nitidez de los colores ofreciendo un resultado muy por encima de la media. La compañía taiwanesa también ha confirmado que este monitor cuenta con HDR, lo que lo convierte en uno de los modelos más completos y mejor acabados que existen actualmente, aunque no ha dado detalles sobre el precio. Con todo y viendo lo que podemos encontrar actualmente en el mercado dentro de la gama alta podemos imaginar que superará sin problemas los 1.000 dólares. Os recordamos que este tipo de soluciones sólo se aprovechan de verdad en equipos de alto rendimiento, aunque en este caso en concreto los requisitos aumentan considerablemente ya que hablamos de una resolución nativa de 3.440 x 1.440 píxeles. Esa cifra nos lleva a pensar como mínimo en una GTX 1080 TI de NVIDIA, aunque lo ideal sería un SLI con dos de esas tarjetas gráficas. Más información: The Verge.
2 comentarios6 shares
31/05/2017Isidro Ros
NVIDIA y AMD se llevan los premios a la mejor GPU y CPU de 2017

NVIDIA y AMD se llevan los premios a la mejor GPU y CPU de 2017

Ya tenemos los resultados de los European Hardware Awards de 2017, un evento anual en el que se premia a los mejores productos de hardware en categorías diversas y que este año ha recaído sobre NVIDIA en GPU y AMD en CPU. El gigante verde se ha llevado el premio a la mejor GPU por el núcleo gráfico GP102, un chip de gama alta que como sabemos se utiliza para dar vida a las tarjetas gráficas GeForce GTX 1080 TI y GTX TITAN X Pascal (la GTX TITAN Xp tuvo un lanzamiento tardío y por eso no se cita). Por su parte el gigante de Sunnyvale ha recibido el premio a la mejor CPU por el RYZEN 5 1600X, un procesador de gama alta que cuenta con seis núcleos y doce hilos a 3,6 GHz-4 GHz, modo normal y turbo. Ya tuvimos ocasión de analizarlo en este artículo, así que os invito a echarle un vistazo. AMD también se ha llevado el premio al mejor producto y a la mejor tecnología del año gracias a RYZEN, dos reconocimientos importantes que confirman una vez más el buen trabajo que ha hecho la compañía con su nueva generación de procesadores. ¿Cómo se han elegido a los ganadores? Los European Hardware Awards se deciden con los votos y opiniones de unos 100 editores profesionales de nueve países diferentes, lo que significa que tienen un valor claro ya que no hablamos de una simple encuesta realizada sobre particulares. A nivel personal los resultados me parecen bastante acertados. El núcleo GP102 ha demostrado ser un auténtico monstruo a nivel de rendimiento y un digno sucesor del GM200 utilizado en las GTX 980 TI. En cuanto a RYZEN creo que ha sido el revulsivo que necesitaba AMD y como ya he dicho en otras ocasiones los modelos de seis núcleos y doce hilos ofrecen una excelente relación calidad-precio, así que también concuerdo con las votaciones. Más información: WCCFTech.
5 comentarios146 shares
30/05/2017Isidro Ros
NVIDIA Max-Q: una GTX 1080 en un MacBook Air

NVIDIA Max-Q: una GTX 1080 en un MacBook Air

Computex 2017. NVIDIA Max-Q es un nuevo enfoque de diseño que pretende redefinir por completo el concepto de portátiles para juegos, haciéndolos más delgados, rápidos y silenciosos. ¿Imaginas un Ultrabook con una gráfica dedicada GTX 1080? Justamente eso es lo que el gigante verde quiere conseguir con NVIDIA Max-Q: portátiles para juegos tres veces más potentes y tres veces más delgados que generaciones anteriores. Dice la compañía que Max-Q es un término bien conocido por la NASA, referido a la presión máxima donde se maximiza la tensión aerodinámica. Los portátiles para juegos no vuelan, pero NVIDIA dice estar aplicando este concepto de diseño en los ordenadores portátiles. No ha entrado en demasiados detalles pero NVIDIA Max-Q actuará en el diseño interno y externo, en el sistema de refrigeración y también en el apartado software para ajustar potencia y consumo, actuando en los controladores y en todas las tecnologías que la firma añade a estos diseños, incluyendo el nuevo modo WhisperMode que promete portátiles más silenciosos. En la práctica: un ultraligero de 18 mm de grosor podrá montar una GTX 1080, abandonando los diseños "tochos" que caracterizan a los grandes portátiles para juegos. Disponibilidad NVIDIA Max-Q Los diseños NVIDIA Max-Q estarán disponibles a partir del 27 de junio y podrán usar gráficas dedicadas con arquitectura Pascal, GeForce GTX 1080, GTX 1070 y GTX 1060. Un gran número de fabricantes OEM e integradores ofrecerán equipos con este diseño. NVIDIA cita a Acer, Aftershock, Alienware, ASUS, Clevo, Dream Machine, ECT, Gigabyte, Hasee, HP, LDLC, Lenovo, Machenike, Maingear, Mechrevo, MSI, Multicom, Origin PC, PC Specialist, Sager, Scan, Terrans Force, Tronic'5 y XoticPC.
1 comentario39 shares
30/05/2017Juan Ranchal
Radeon R9 390 de 8 GB frente a GTX 970 de 4 GB, así han “envejecido”

Radeon R9 390 de 8 GB frente a GTX 970 de 4 GB, así han “envejecido”

Las Radeon R9 390 de 8 GB y las GTX 970 de 4 GB fueron rivales directos y libraron una "batalla" importante por coronarse como la mejor opción calidad-precio dentro del mercado de soluciones gráficas de gama alta. Como recordarán nuestros lectores habituales en su momento fue casi imposible alcanzar una decisión unánime, ya que aunque la Radeon R9 390 de 8 GB ofrecía un buen rendimiento y estaba más preparada para el futuro también consumía más energía y no siempre llegaba a superar a una GTX 970 de 4 GB. La polémica de la configuración de memoria que azotó a las GTX 970 de NVIDIA pareció inclinar la balanza a favor de las Radeon R9 390 de 8 GB, pero en pruebas reales se mantenían los resultados que confirmaban una paridad importante a nivel de rendimiento entre ambas. A pesar de todo la especulación no tardó en llegar. Muchos dijeron que en cuanto NVIDIA lanzará las GTX 10 y dejara de "mimar" a la GTX 970 en los drivers se iba a perder la magia de la optimización, y que la configuración de 3,5 GB + 0,5 GB le iba a pasar factura. Ese día ya ha llegado, los de verde tienen en el mercado las GXT 10 desde hace un año así que es un buen momento para ver si los malos augurios se han cumplido, y sobre todo para determinar qué tal han aguantado el tipo ambas tarjetas gráficas. Como podemos ver en el vídeo ambas tarjetas rinden a un nivel muy parecido así que podemos decir con total seguridad que aquella predicción ha sido totalmente errónea. Sin embargo es cierto que esos 8 GB de GDDR5 que posee la Radeon R9 390 le permite marcar la diferencia en casos concretos, como por ejemplo en Resident Evil 7, un juego que tiene una dependencia importante de la memoria gráfica total del sistema. En otros títulos como DOOM bajo Vulkan y HITMAN bajo DirectX 12 la solución de AMD también se lleva el gato al agua, pero en la mayoría de juegos bajo DirectX 11 se impone la GTX 970 incluso al utilizar resoluciones 1440p. La conclusión que podemos sacar de todo esto es muy sencilla, ambas muestran un rendimiento medio muy parecido y se puede hablar por tanto de un empate técnico, aunque la GTX 970 es más fresca y consume menos energía.
6 comentarios32 shares
29/05/2017Isidro Ros
NVIDIA anuncia oficialmente la GeForce MX150 para portátiles

NVIDIA anuncia oficialmente la GeForce MX150 para portátiles

Ya os hablamos de la GeForce MX150 hace unos días pero por fin ha sido anunciada oficialmente por NVIDIA, lo que nos ha permitido confirmar sus especificaciones clave y determinar el nivel de prestaciones que ofrece frente a las generaciones anteriores. La GeForce MX150 se basa en el núcleo gráfico GP108 (Pascal), el mismo que se utiliza en las GT 1030. Esto quiere decir que está fabricado en proceso de 16 nm y que tiene un total de 384 shaders, 24 unidades de texturizado y 8 unidades de rasterizado. El bus de memoria se ha mantenido de manera que tenemos un ancho de 64 bits acompañado de 2 GB de GDDR5 a 6 GHz. Esta particular combinación hace posible alcanzar un ancho de banda de 48 GB/s. Es un número bastante bajo, pero de haber usado DDR3 el resultado habría sido mucho peor. NVIDIA ha destacado que esta solución gráfica ofrece un rendimiento por vatio tres veces superior al de la GT 940MX, una solución gráfica que utiliza el núcleo GM107-B (Maxell) y que está fabricada en proceso de 28 nm. A pesar de que la GT 940MX también suma 384 shaders y un bus de 64 bits con 2 GB de GDDR5 su rendimiento es inferior al de la GeForce MX150, debido a las mejoras que introduce la segunda con el cambio de arquitectura y a su mayor frecuencia de trabajo. No es una solución pensada para mover juegos actuales en altas resoluciones, pero ofrece un desempeño muy superior a las de las gráficas integradas, así que puede ser una buena opción para profesionales que requieran ese extra de potencia y que deseen además disponer de un equipo que les permita echar "una partida" sin demasiadas pretensiones. Más información: TechPowerUP! [gallery link="file" columns="4" ids="184057,184058,184059,184061"]
0 comentarios48 shares
26/05/2017Isidro Ros
[ ]