NVIDIA » MuyComputer
[ NVIDIA ]
GeForce GTX 970 en SLI frente a GeForce GTX 1080 en juegos actuales

GeForce GTX 970 en SLI frente a GeForce GTX 1080 en juegos actuales

Debido a su buen rendimiento, bajo precio y excelente escalado en la mayoría de los juegos algunos usuarios han considerado montar dos GeForce GTX 970 en SLI, una configuración que permite mejorar el rendimiento con una inversión relativamente asequible y que evita tener que comprar una tarjeta gráfica nueva de gama alta para conseguir una mejora rentable en términos de rendimiento.Con el aumento de precio que están experimentando las tarjetas gráficas de gama alta esa idea de montar dos GeForce GTX 970 en SLI tiene más sentido que nunca, ¿pero es realmente una buena idea?Es una pregunta necesaria que gracias a los chicos de Benchmark podemos responder de forma precisa. Las últimas comparativas de rendimiento que vi en su momento indicaban que dos GeForce GTX 970 en SLI quedaban más o menos al nivel de una GTX 1070 de NVIDIA, que a su vez rinde casi como una GTX 980 TI a frecuencias de stock.En el vídeo que acompañamos la comparativa sube el listón considerablemente ya que se enfrenta dicha configuración con doble GPU a una GTX 1080 y los resultados son claros, aunque antes de analizarlos vamos a repasar las especificaciones de cada tarjeta gráfica. GTX 970 (cada tarjeta)1.664 shaders (Maxwell en 28 nm). 104 unidades de texturizado. 56 unidades de rasterizado. GPU a 1.050 MHz-1.178 MHz. Bus de 224 bits con 3,5 GB de GDDR5 a 7 GHz. Bus de 32 bits con 0,5 GB de GDDR5 a 7 GHz. Precio medio de un SLI (segunda mano): menos de 400 euros.GTX 10802.560 shaders (Pascal en 16 nm). 160 unidades de textura. 64 unidades de rasterizado. Bus de 256 bits. 8 GB de memoria GDDR5X a 10 GHz. Frecuencias de 1.607 MHz-1.7033 MHz. Precio medio (nueva): unos 600 euros.Los resultados dependen bastante de cada juego en concreto y de si éste puede aprovechar una configuración SLI. Rise of the Tomb Raider por ejemplo no tiene soporte así que sólo trabaja una GTX 970 y el resultado es muy flojo.Sin embargo en otros títulos como GTA V el SLI de GTX 970 rinde casi al mismo nivel que una GTX 1080 y esa es precisamente la tónica de la mayor parte de la comparativa.Por relación coste-prestaciones hacer un montar dos GTX 970 en SLI puede ser una buena opción, sobre todo si encontramos la segunda unidad a buen precio, pero debemos tener en cuenta que será una configuración menos eficiente que una GTX 1080 y que tendremos que lidiar con la problemática del soporte en juegos de configuraciones multiGPU.
4 comentarios5 shares
2 díasIsidro Ros
GeForce GT 730 OC (GDDR5) frente a GeForce GT 1030 OC en juegos actuales

GeForce GT 730 OC (GDDR5) frente a GeForce GT 1030 OC en juegos actuales

En esta nueva comparativa de los chicos de NJ Tech vamos analizar el rendimiento que ofrecen la GeForce GT 730 OC y la GeForce GT 1030 OC, ambas equipadas con memoria GDDR5 y con las frecuencias de trabajo incrementadas por encima de las de sus respectivos modelos de referencia (OC = overclock).El objetivo principal de este vídeo es valorar hasta qué punto la GeForce GT 1030 OC supone una mejora frente a la GeForce GT 730 OC en juegos actuales. Esto nos permitirá sacar en claro si efectivamente la primera representa una actualización que merece la pena para aquellos usuarios que estén utilizando la segunda, o si ocurre todo lo contrario.Antes de entrar a valorar esa cuestión echamos un vistazo a las especificaciones de cada tarjeta gráfica. GeForce GT 730384 shaders (núcleo gráfico GK 208 en 28 nm) a 1.008 MHz. 16 unidades de texturizado. 8 unidades de rasterizado. Bus de 64 bits. 2 GB de GDDR5 a 5 GHz. TDP de 30 vatios.GeForce GT 1030384 shaders (núcleo gráfico GP108 a 16 nm) a 1.468 MHz. 24 unidades de texturizado. 8 unidades de rasterizado. Bus de 64 bits. 2 GB de GDDR5 a 6 GHz. TDP de 30 vatios.Echando un vistazo a los resultados de las pruebas podemos confirmar que la diferencia entre ambas tarjetas gráficas es muy grande, y que efectivamente la GeForce GT 1030 es muy superior a la GeForce GT 730 en su versión con GDDR5.La primera consigue mover todos los juegos de la comparativa en 1080p manteniendo una media de fotogramas por segundo lo bastante buena como para jugar sin problemas, y en algunos casos llega a doblar el rendimiento de la segunda en tasa de FPS mínimos.En resumen la GeForce GT 1030 es una gran actualización si tenemos una GeForce GT 730, aunque si queréis que el cambio se note todavía más os recomendamos apostar como mínimo por una GTX 1050.
0 comentarios12 shares
2 díasIsidro Ros
NVIDIA prepara una GeForce GTX 1050 Max-Q

NVIDIA prepara una GeForce GTX 1050 Max-Q

El registro de cambios de los últimos drivers de NVIDIA para Linux ha confirmado que el gigante verde está preparando una nueva solución gráfica para equipos portátiles llamada GeForce GTX 1050 Max-Q.Como su propio nombre indica se trata de una versión de la GTX 1050 para portátiles que ha sido incluida en la serie Max-Q, una nueva especificación introducida el pasado año por NVIDIA que se centra en priorizar el consumo de las tarjetas gráficas sobre el rendimiento para conseguir una mayor autonomía y reducir las temperaturas de trabajo.Esto quiere decir que esa GeForce GTX 1050 Max-Q será más lenta que una GTX 1050 estándar para portátil ya que trabajará a una menor frecuencia como podemos ver en el cuadro que acompañamos, pero a cambio consumirá menos energía y facilitará su integración en portátiles más delgados y ligeros.Por lo que respecta a sus especificaciones es importante recordar que esta la serie Max-Q mantiene todas las claves de los modelos estándar, lo que significa que no habrá un recorte a nivel de shaders ni de otras características. Sólo se reduce la frecuencia de trabajo para bajar el consumo, así que la GeForce GTX 1050 Max-Q contará con:640 shaders (Pascal). 40 TMUs. 32 ROPs. Bus de 128 bits. 2 GB/4 GB de GDDR5 a 7 GHz. Frecuencia de hasta 1.328 MHz en la GPU.Una GTX 1050 estándar para portátil puede alcanzar los 1.493 MHz de frecuencia en la GPU, un dato que nos permite comprobar que la diferencia de velocidad máxima será bastante grande y que obviamente se acabará notando a nivel de rendimiento.También lanzarán una versión Max-Q de la GTX 1050 TI, que igualmente mantendrá todas las claves del modelo estándar salvo las frecuencias máximas de trabajo, que se reducirán a los 1.417 MHz. Os recordamos sus especificaciones:768 shaders (Pascal). 48 TMUs. 32 ROPs. Bus de 128 bits. 4 GB de GDDR5 a 7 GHz.Más información: Videocardz.
0 comentarios8 shares
14/01/2018Isidro Ros
Detectada enorme subida de precios en tarjetas gráficas, malos augurios

Detectada enorme subida de precios en tarjetas gráficas, malos augurios

En artículos anteriores ya os hemos anticipado que se esperaba una subida de precios en tarjetas gráficas para este mismo año, aunque en teoría no debería ser demasiado abultada ya que en principio iba a estar motivada únicamente por un encarecimiento de la memoria gráfica.Por desgracia parece que esas previsiones no sólo se han cumplido sino que además la situación está peor de lo que nos habríamos imaginado. En el canal estadounidense hemos podido ver una enorme subida de precios en tarjetas gráficas que afecta a casi todas las gamas y que además se está empezando a notar en España.Para que os hagáis una idea la GTX 1070 TI llegó al mercado hace apenas unos meses con un precio de 380 dólares y ahora mismo en Amazon.com supera los 800 dólares (precio medio). Las GTX 1060 de 3 GB que rondaban los 200 dólares han subido hasta una media de 350 dólares y las GTX 1080 TI han llegado a superar en algunos modelos los 1.300 dólares.El aumento de precios ha sido ridículo, tanto que en ciertos casos se ha doblado el precio base de las tarjetas gráficas afectadas. La situación también ha afectado a las Radeon RX Vega de AMD, ya que el modelo con 64 CUs ha subido hasta los 1.250 dólares y el de 56 CUs ronda los 900 dólares.Tened en cuenta que estos no son los precios recomendados de NVIDIA y AMD y que por tanto no tienen relación directa con dichas empresas, sino que son los precios que ponen directamente los vendedores a dichas tarjetas gráficas.Como dijimos en España esta brutal subida de precios todavía no se ha materializado pero hay una escasez cada vez mayor de tarjetas gráficas que se está dejando notar en casi todas las gamas, así que no descartamos que esta situación se acabe extendiendo a nuestro país.Más información: TechPowerUP![gallery columns="4" link="file" ids="206372,206373,206374,206375"]
26 comentarios40 shares
11/01/2018Isidro Ros
NVIDIA prepara una Quadro GV100 basada en la arquitectura Volta

NVIDIA prepara una Quadro GV100 basada en la arquitectura Volta

Un binario presente en la última versión de NVFlash ha confirmado que NVIDIA tiene en boxes la Quadro GV100, una tarjeta gráfica tope de gama que irá dirigida al sector profesional y que en teoría no debería diferir a nivel de especificaciones de la Tesla GV100.Haciendo una comparativa con la GTX TITAN V tampoco esperamos grandes diferencias a nivel de especificaciones ya que la base de dichas tarjetas es el mismo, el núcleo gráfico GV100.Esto quiere decir que la Quadro GV100 debería contar con 5.120 shaders y mantener los 640 núcleos tensor para inteligencia artificial y aprendizaje profundo, aunque no tenemos claro si vendrá acompañada de un bus de 3.072 bits y 12 GB de HBM2 como la GTX TITAN V o si contará con un bus de 4.096 bits y 16 GB de HBM2 como la Tesla GV100.Es importante tener en cuenta que aunque las especificaciones de la GTX TITAN V y de la Quadro GV100 acaben siendo muy parecidas ambas se dirigen a sectores diferentes y tendrán precios dispares. La primera ronda los 3.000 dólares y esperamos que la segunda triplique ese precio.¿Cómo justifica NVIDIA esa diferencia de precio? Pues es muy sencillo, la familia Quadro ofrece un conjunto de características profesionales únicas que no están presentes en otras tarjetas gráficas, entre las que podemos incluir por ejemplo certificaciones de software y optimizaciones concretas que permiten un mayor rendimiento y una mejor experiencia de uso en tareas de diseño gráfico, medios, animación, arquitectura, exploración de recursos y similares.No podemos descartar que el gigante verde decida marcar un poco más las distancias con la GTX TITAN V manteniendo como dijimos el bus de 4.096 bits y los 16 GB de memoria HBM2 que tiene la Tesla GV100, pero no está confirmado oficialmente así que no es seguro.Más información: TechPowerUP!
0 comentarios16 shares
10/01/2018Isidro Ros
Nueva GALAX GeForce GTX 1070 Ti HOF; overclock por bandera

Nueva GALAX GeForce GTX 1070 Ti HOF; overclock por bandera

La conocida ensambladora ha dejado ver la nueva GALAX GeForce GTX 1070 Ti HOF, una tarjeta gráfica de alto rendimiento que incorpora su clásico diseño HOF (Hall of Fame) y que además promete ofrecer un alto nivel de rendimiento gracias al overclock.Dicho overclock no viene implementado de serie, es decir la GALAX GeForce GTX 1070 Ti HOF funciona de casa a las velocidades de referencia de cualquier GTX 1070 TI. Sin embargo cuenta con una opción que se describe como "overclock con un clic" y que como su propio nombre indica permite subir las frecuencias de trabajo seleccionando la opción correspondiente.Aunque GALAX todavía no ha confirmado las especificaciones concretas de esta tarjeta gráfica podemos ver que al activar el overclock hay una mejora de rendimiento considerable.Los que nos leéis a diario sabéis que una GTX 1070 TI tiene unas especificaciones muy parecidas a las de una GTX 1080, y que subir las frecuencias de trabajo en GPU y VRAM en la primera permite acercarla considerablemente a la segunda, así que es muy probable que esa GALAX GeForce GTX 1070 Ti HOF rinda casi lo mismo que una GTX 1080 al activar el overclock.Habrá que ver eso sí el precio de esta tarjeta gráfica. La serie HOF no suele ser económica y puede que este modelo concreto acabe siendo más caro que una GTX 1080 con un diseño más sencillo. Si esto se confirma está claro que no sería una buena opción y que deberíamos optar directamente por una GTX 1080.Por lo demás la GALAX GeForce GTX 1070 Ti HOF mantiene todas las especificaciones clave de una GTX 1070 TI estándar:2.432 shaders. 152 unidades de textura. 64 unidades de rasterizado. Bus de 256 bits. 8 GB de memoria GDDR5 a 8 GHz. Frecuencias de 1.607 MHz-1.683 MHz, modo normal y turbo.Más información: Videocardz.
0 comentarios15 shares
09/01/2018Isidro Ros
NVIDIA anuncia la beta de GeForce Now en PC, es gratuita

NVIDIA anuncia la beta de GeForce Now en PC, es gratuita

CES 2018. El gigante verde ha aprovechado el conocido evento de Las Vegas para anunciar el inicio de la beta de GeForce Now, un servicio que podemos definir como de computación en la nube que permite al usuario disfrutar de juegos actuales sin preocuparse por los requisitos.Los que nos leéis a diario recordaréis que este servicio ya debutó en la plataforma Mac de Apple y sí, la beta de GeForce Now para PC mantiene las mismas claves de aquél. Esto quiere decir que con este servicio el usuario tiene acceso a toda la potencia de una GTX 1080. Os explicamos al detalle como funciona.Con la beta de GeForce Now para PC podemos acceder a determinados juegos triple A de Steam, Uplay y Battle.net y jugarlos aunque no cumplamos con los requisitos mínimos. Como anticipamos esto es posible gracias a la computación en la nube. Es fundamental que hayamos comprado esos juegos.El juego se ejecuta en un servidor bajo una potente GTX 1080, de manera que nosotros lo jugamos en streaming. En efecto, el enfoque es parecido a otros servicios de juego en la nube como PlayStation Now, con la particularidad de que en este caso disfrutamos de una experiencia cercana a jugar en un PC de gama alta.Decimos que es una experiencia cercana porque el resultado final dependerá mucho de nuestra conexión a Internet, que como mínimo debe tener una velocidad de 25 Mbps. El resto de requisitos mínimos de GeForce Now incluyen un PC con Core i3 a 3,1 GHz, 4 GB de RAM y una tarjeta gráfica compatible con DirectX 9.Tened en cuenta que aunque la beta es gratuita sólo ofrece cuatro horas de juego sin coste y que requiere una suscripción previa con lista de espera.Más información: Neowin.
1 comentario40 shares
08/01/2018Isidro Ros
Se espera subida de precios de tarjetas gráficas de gama media y alta

Se espera subida de precios de tarjetas gráficas de gama media y alta

El auge del minado de criptodivisas lleva un tiempo elevando los precios de tarjetas gráficas de gama media y gama alta de los principales fabricantes del sector, aunque es cierto que las soluciones Radeon RX de AMD han sido las más perjudicadas.Las consecuencias han sido muy negativas para los consumidores, ya que hasta hace cosa de un año era posible comprar tarjetas gráficas como las RX 570 de 4 GB por unos apetecibles 170 euros y ahora es casi imposible encontrar una por menos de 250 euros.En el caso de las soluciones gráficas de NVIDIA las más afectadas han sido las GTX 1060 de 6 GB, que han pasado de los 260 euros a los 290 euros (modelos más económicos). La subida ha sido menos marcada, pero también se ha extendido a las GTX 1070 de 8 GB.Por desgracia la tendencia no va a cambiar, ya que según las últimas previsiones de DigiTimes se espera una nueva subida de precios de tarjetas gráficas de gama media y gama alta durante el primer trimestre del año, aunque tendrá dos causas y no una.La primera es la que ya hemos comentado, el interés hacia el minado de criptodivisas y el sostenimiento de una alta demanda de dicho tipo de soluciones gráficas. La segunda está relacionada con la escasez de memoria gráfica, que es consecuencia directa de esa alta demanda y de la desviación de recursos productivos para fabricar más memoria DRAM Y Nand Flash.Se espera que las tarjetas gráficas de gama media y gama alta se encarezcan como mínimo entre 5 y 20 dólares por el mayor coste de la memoria gráfica. Obviamente esto afectará en mayor medida a aquellas soluciones que utilicen una mayor cantidad de memoria gráfica, es decir a los modelos con 6 GB y 8 GB.Más información: Hexus.
10 comentarios59 shares
03/01/2018Isidro Ros
NVIDIA lanzará una GTX 1060 con 5 GB de memoria GDDR5

NVIDIA lanzará una GTX 1060 con 5 GB de memoria GDDR5

El gigante verde se ha marcado una de las generaciones más prolíficas con sus soluciones gráficas basadas en Pascal, pero parece que no ha tenido suficiente ya que según una nueva información está preparando una GTX 1060 con 5 GB de memoria GDDR5.Os ponemos en situación para que podáis ubicar mejor esa GTX 1060 con 5 GB de GDDR5. Con el lanzamiento de sus tarjetas gráficas de gama media-alta NVIDIA optó por poner en el mercado dos modelos diferentes:GTX 1060 de 3 GB de GDDR5: Tiene 1.152 shaders, 72 unidades de texturizado, 48 unidades de rasterizado y bus de 192 bits. GTX 1060 de 6 GB de GDDR5: Tiene 1.280 shaders, 80 unidades de texturizado, 48 unidades de rasterizado y bus de 192 bits.Como podemos ver las diferencias son mínimas pero están ahí y se dejan notar en juegos, aunque depende mucho de las exigencias y particularidades de cada título en concreto. Pues bien lo nuevo de NVIDIA tendría 5 GB de GDDR5, 1.280 shaders, 80 unidades de texturizado, 48 unidades de rasterizado y bus de 160 bits.Las diferencias estarían en la reducción de 1 GB de GDDR5 en la memoria gráfica y en la bajada del bus de 192 bits a 160 bits, lo que nos dejaría un ancho de banda inferior.Es muy probable que su rendimiento en líneas generales acabe siendo casi idéntico al de una GTX 1060 de 6 GB, pero hasta que no tengamos las especificaciones finales y pruebas de rendimiento no podemos dar nada por seguro. ¿Y qué sentido tiene lanzar otra GTX 1060? Para NVIDIA mucho, ya que este modelo no se venderá directamente al público ni a nivel internacional. Será una solución exclusiva para el mercado chino y distribuida en grandes cantidades.Su objetivo prioritario serán los cibercafés dedicados a juegos, un negocio que tiene una gran popularidad en China y también en otras zonas de Asia.Más información: Videocardz.
0 comentarios49 shares
27/12/2017Isidro Ros
Descubre la regla especial de NVIDIA para sus ingenieros

Descubre la regla especial de NVIDIA para sus ingenieros

Lo que vemos en la imagen adjunta es una regla que fue diseñada por Andrew Bell, vicepresidente de ingeniería de hardware de NVIDIA en 2016, una herramienta pensada para hacer que el trabajo de los ingenieros de la compañía sea más fácil.Es posible que uno se pregunte cómo puede una regla llegar a convertirse en algo tan interesante como para merecer un artículo, pero si os fijáis con cuidado en dicha imagen veréis que no hablamos de una regla cualquiera.En la misma aparecen recogidas de forma clara tanto el aspecto como las medidas de una serie de componentes electrónicos básicos para la creación de tarjetas gráficas GeForce. Esto simplifica en gran medida el trabajo de los ingenieros que pueden tener claro en segundos qué componentes cumplen con los requisitos fijados para la fabricación de un determinado producto y descartar sin esfuerzo aquellos que no.Esta regla es por tanto única, ya que como dijimos sirve de referencia para aquellas piezas y componentes que los ingenieros de NVIDIA usan con más frecuencia en su día a día. Eso incluye desde el núcleo gráfico GP104, presente en las GTX 1070, GTX 1070 TI y GTX 1080, hasta los que SoCs Tegra X1 y K1, o SoC.La regla permite a los ingenieros ver el tamaño de cada pieza pero también otros datos importantes como la posición que deben seguir las matrices y los pines, que obviamente deben alinearse a la perfección para que el proceso productivo sea un éxito.Más allá de su utilidad práctica esta regla se ha convertido en un objeto de deseo por parte de geeks y fans de NVIDIA. Si queréis haceros con una tenemos malas noticias ya que no se venden al público, aunque de vez en cuando aparece alguna por eBay.Más información: TechPowerUP!
4 comentarios4 shares
26/12/2017Isidro Ros
NVIDIA abandonará el soporte de sistemas operativos de 32 bits

NVIDIA abandonará el soporte de sistemas operativos de 32 bits

El gigante verde ha confirmado que dejará de dar soporte en sus drivers a sistemas operativos de 32 bits a partir de la versión 390, un movimiento que implica que cuando se produzca el lanzamiento de aquella sólo encontraremos disponible versiones para sistemas operativos de 64 bits.NVIDIA ha confirmado que el fin de soporte de sistemas operativos de 32 bits afectará a:Microsoft Windows 7. Microsoft Windows 8/8.1. Microsoft Windows 10. Linux. FreeBSD. Windows XP.Es importante tener en cuenta que aunque hablamos de un fin efectivo de soporte éste presenta un matiz importante que es beneficioso para el usuario. Ese fin de soporte de sistemas operativos de 32 bits sólo tendrá consecuencias a nivel funcional y de optimización.Esto quiere decir que aunque no habrá nuevos drivers compatibles NVIDIA seguirá ofreciendo un soporte limitado a modo de "mantenimiento", de manera que los controladores "obsoletos" en su versión de 32 bits continuarán recibiendo actualizaciones de seguridad "críticas" hasta enero de 2019.Haciendo una valoración conjunta tenemos claro que los de verde han dado un paso perfectamente comprensible ya que los sistemas operativos de 32 bits son ya algo minoritario, y además han llevado a cabo este fin de soporte con un planteamiento muy acertado.Extender el soporte con actualizaciones de seguridad hasta enero de 2019 da un plazo más que suficiente tanto a usuarios particulares como a empresas para que puedan actualizar sus equipos a un sistema operativo de 64 bits, sin ejercer una presión excesiva y sin poner en riesgo la seguridad de los mismos.Más información: Hexus.
11 comentarios156 shares
22/12/2017Isidro Ros
Las GTX serie 2000 no utilizarán Volta ni Ampere

Las GTX serie 2000 no utilizarán Volta ni Ampere

El lanzamiento de las GTX serie 2000 se espera para el próximo año, una nueva generación de tarjetas gráficas que irá dirigida al mercado de consumo general y que según las últimas informaciones que vimos podría estar basada en Ampere.Ampere es el nombre de una de las arquitecturas de nueva generación que está desarrollando NVIDIA y en teoría será la sucesora de Volta. ¿Que quiere decir esto y por qué no se utiliza Volta en las GTX serie 2000?Es una buena pregunta y no os preocupéis, tiene una respuesta sencilla. Volta ha sido una arquitectura dirigida al sector profesional en la que se ha priorizado el equilibrio entre potencia bruta y capacidad de trabajo en IA y aprendizaje profundo, gracias al aumento de los núcleos CUDA (shaders) hasta un total de 5.120, y a la inclusión de 640 núcleos tensor.Pues bien Ampere es la sucesora de Volta, lo que significa que estará reservada también al sector profesional y que por eso no se utilizará en las GTX serie 2000, una gama que está dirigida al mercado de consumo general.No tenemos detalles sobre la nueva arquitectura de consumo general que lanzará NVIDIA para sus soluciones gráficas de consumo general, pero podemos dar por hecho que no tendrá nada que ver con Volta ni con Ampere y que estará desarrollada desde cero.Viendo los pasos que ha seguido NVIDIA con Maxwell y Pascal creo que podemos esperar cambios más profundos que podrían dejar en un segundo plano los incrementos en términos de potencia bruta, lo que significa que no habría un incremento importante en conteo de shaderes y frecuencias de trabajo frente a las GTX 1000.Más información: DvHardware.
5 comentarios61 shares
20/12/2017Isidro Ros
NVIDIA baja el precio de la SHIELD TV por Navidad

NVIDIA baja el precio de la SHIELD TV por Navidad

NVIDIA ha anunciado una importante rebaja de precio para su reproductor SHIELD TV. La promoción estará disponible en España hasta el 24 de diciembre y deja el precio de la versión básica en 159 euros tras el 20% de descuento.Ya conoces esta SHIELD TV. Un dispositivo que NVIDIA enfoca como dispositivo multifuncional para la sala de estar y que además de reproducción multimedia y streaming, sirve también para ejecución de videojuegos.A nivel de hardware, SHIELD TV utiliza un potente SoC Tegra X1, equipado con un procesador de cuatro núcleos Cortex-A57 y 2 MB de caché L2 y una GPU basada en Maxwell con 256 shaders y soporte de DirectX 12. Su memoria RAM es de 3 GB y está disponible en dos versiones con diferente capacidad de almacenamiento; una con 16 GB de eMMC y otra con un disco duro de 500 GB, ambas ampliables a través de sus conectores USB 3.0.El Tegra X1 permite trabajar con resoluciones 4K a 60 FPS y HDR activado sin problema, lo que la convierte en una solución interesante con televisores UHD. El soporte de Dolby Atmos y DTS-X permite disfrutar de una alta calidad de sonido.La SHIELD TV está gobernada por la versión de Android para la gran pantalla y con ello tiene acceso a miles de apps y juegos. Soporta servicios como Netflix, Amazon Video, YouTube, Google Play, Kodi, Spotify, iTunes Música y un largo etc.La versión base de la SHIELD TV (16 GB de capacidad de almacenamiento) está disponible en el canal español en minoristas como Amazon por los 159 euros referidos.SHIELD TV | NVIDIA
1 comentario7 shares
14/12/2017Juan Ranchal
Despiece de la GTX TITAN V en vídeo, así es lo nuevo de NVIDIA

Despiece de la GTX TITAN V en vídeo, así es lo nuevo de NVIDIA

Hace unos días NVIDIA presentó en sociedad la GTX TITAN V, una tarjeta gráfica que se ha convertido en la más potente dentro del mercado de consumo general gracias a la utilización del núcleo GV100.Dicho núcleo gráfico utiliza la arquitectura Volta en lugar de Pascal, lo que significa que hay un cambio importante frente a las GTX serie 10 que va más allá del aumento de shaders y de la utilización de memoria HBM2 en lugar de GDDR5X.En este artículo tuvimos la oportunidad de ver una primera ronda de pruebas y confirmamos que la GTX TITAN V es un auténtico monstruo, aunque por precio (casi 3.000 dólares) y especificaciones (mantiene los núcleos Tensor para IA y aprendizaje profundo) es una solución pensada para profesionales.Sí, sabemos que la serie TITAN siempre ha estado inclinada a profesionales, pero la GTX TITAN V es sin duda alguna la que más enfocada está a dicho sector de todas las que ha lanzado hasta el momento NVIDIA en dicha serie.Hoy hemos podido ver un despiece de esta tarjeta gráfica en vídeo gracias a los chicos de GameNexus y gracias a ello tenemos claros algunos detalles que habían quedado en el tintero tras su presentación.La GPU, que integra la memoria HBM2 en el mismo encapsulado, se identifica como GV100-400, una variante que normalmente se reserva a los modelos tope de gama. Para que entendáis mejor esta referencia os pongo un ejemplo de la generación actual; la GTX 1080 TI utiliza el núcleo gráfico GP102-350 mientras que la GTX TITAN Xp emplea el GP102-450.El VRM de la tarjeta es de 16 fases, el más potente que ha montado NVIDIA hasta la fecha y síntoma claro del nivel de la GTX TITAN V. La alimentación corre a cargo de dos conectores adicionales de alimentación, uno de 8 pines y otro de 6 pines, y tenemos el clásico ventilador de turbina que se encarga de extraer el calor del interior de la tarjeta.Más información: Videocardz.
0 comentarios7 shares
12/12/2017Isidro Ros
Rendimiento de la GTX Titan V; supera a una GTX 1080 TI a 2,6 GHz

Rendimiento de la GTX Titan V; supera a una GTX 1080 TI a 2,6 GHz

Justo ayer os hablamos de la GTX Titan V, una tarjeta gráfica que nos cogió por sorpresa ya que no esperábamos que NVIDIA fuese a lanzar una nueva solución tope de gama para el mercado "de consumo general".Esta tarjeta gráfica es una adaptación a consumo de la Tesla V100, lo que significa que mantiene el núcleo gráfico GV100 (Volta, sucesora de Pascal) en todo su esplendor y que suma 5.120 shaders. Para que os hagáis una idea la GTX 1080 TI cuenta con 3.584 shaders y la GTX TITAN Xp tiene 3.840 shaders.Dichas especificaciones se completan con 426 unidades de texturizado, 96 unidades de rasterizado, 640 unidades "tensor" para inteligencia artificial, bus de 3.072 bits y 12 GB de memoria HBM2 a 1,7 GHz, lo que nos deja un ancho de banda de 653 GB/s. Como podemos ver el recorte más importante que ha introducido NVIDIA frente a la Tesla V100 está en la memoria y el bus, ya que aquella cuenta con un bus de 4.096 bits y 16 GB de HBM2 a 1,75 GHz.La GPU de la GTX TITAN V funciona a 1.200 MHz de frecuencia base pero puede alcanzar los 1.455 MHz en modo turbo, un incremento importante que le permite mejorar sensiblemente el rendimiento en aplicaciones intensivas.Echando un vistazo a las pruebas de rendimiento tenemos algunos detalles interesantes. En el benchmark Unigine Superposition la GTX TITAN V a frecuencias de stock es capaz de superar a una GTX 1080 TI subida a 2.581 MHz, ya que ambas consiguieron una puntuación de 9.431 y 8.642.También os dejamos una galería de pruebas de rendimiento en títulos como Gear of War 4, Ashes of the Singularity y Rise of the Tomb Raider que confirman que la tarjeta es un auténtico "monstruo", aunque debemos tener en cuenta que sus frecuencias de trabajo son relativamente bajas incluso en modo turbo y que esto afecta al rendimiento en juegos.Es algo habitual en la serie TITAN de NVIDIA, una gama que mantiene el alto conteo de shaders de las Tesla y también las bajas frecuencias de trabajo para conseguir un mayor equilibrio entre potencia de computación y consumo. Esto no ocurre en las GTX serie X80 TI de NVIDIA, donde se potencian sensiblemente las velocidades en modo turbo (GPU Boost 3.0) pero se recortan shaders.Más información: WCCFTech.[gallery columns="4" link="file" ids="203191,203190,203189,203188"]
6 comentarios44 shares
09/12/2017Isidro Ros
NVIDIA presenta Titan V, la GPU más potente jamás creada

NVIDIA presenta Titan V, la GPU más potente jamás creada

NVIDIA ha presentado la Titan V, la tarjeta gráfica más potente jamás creada según promociona el gigante verde y la primera con "grado de consumo-cliente PC" que llega al mercado bajo la nueva arquitectura 'Volta'.Nos cuesta hablar de "consumo" de una tarjeta que cuesta 2.999 dólares, pero así encuadra NVIDIA este desarrollo seguramente para separarla de la serie Tesla. Obviamente, está diseñada para computación de alto rendimiento e investigación científica con especialización en Inteligencia Artificial.La Titan V está fabricada por la foundry TSMC en procesos tecnológicos FinFET+ de 12 nanómetros. Tiene 21.000 millones de transistores y una potencia de 110 teraFLOP. Está basada en el núcleo gráfico GV100 (el mismo que motoriza la Tesla V100 para HPC) y cuenta con un diseño multi-chip que incluye la die de la GPU y tres módulos para memoria HBM2.Cuenta con la friolera de 5.120 núcleos CUDA (distribuidos en 80 multiprocesadores de transmisión y 6 clústeres de procesamiento gráfico) y 320 unidades de texturas o TMU. También incluye 640 núcleos "Tensor", unidades especializadas en procesamiento neural, aprendizaje profundo e Inteligencia Artificial.La frecuencia base del núcleo gráfico está fijada en 1.200 MHz, mientras que en modo acelerado (boost) podrá alcanzar 1.455 MHz. Dispone de 12 Gbytes de memoria dedicada HBM2 en una interfaz de 3.072 bits, con frecuencia de 850 MHz para un ancho de banda de 652.8 GB/s.La tarjeta obtiene la energía de dos conectores PCIe de 6 y 8 pines, mientras que sus salidas de vídeo son tres Display Port y un HDMI. Su TDP es de 250 vatios y se recomienda una fuente de alimentación de al menos 600 vatios. Cuenta con una carcasa de aluminio fundido, un disipador de calor de cobre y un acabado en color oro que ves en las imágenes.El precio oficial es el referido, 2.999 dólares (3.100 euros en España) y se vende exclusivamente desde la tienda on-line de NVIDIA. Titan V deja la puerta abierta a la llegada de la arquitectura Volta al mercado de consumo con modelos para juego que podamos pagar, si bien no sabemos la prisa de NVIDIA por hacerlo cuando domina el mercado gráfico con las actuales 'Pascal'.
8 comentarios23 shares
08/12/2017Juan Ranchal
Inteligencia artificial de NVIDIA puede cambiar imágenes de invierno a verano

Inteligencia artificial de NVIDIA puede cambiar imágenes de invierno a verano

La inteligencia artificial es uno de los campos que más ha atraído la atención de NVIDIA. El gigante verde ha trabajado durante los últimos años por convertirse en algo más que un simple proveedor de tarjetas gráficas para consumo general, y viendo los resultados que ha conseguido debemos reconocer que ha cumplido su objetivo.Decimos esto porque actualmente podemos hablar de logros importantes por parte de NVIDIA tanto en el sector de la automoción como en el de las soluciones dedicadas a inteligencia artificial y aprendizaje profundo, un sector en el que Ming-Yu Liu, uno de los investigadores del gigante verde, ha logrado avances sorprendentes.Como podemos ver en el vídeo que acompañamos su último proyecto ha dado forma a un sistema de inteligencia artificial que es capaz de modificar imágenes de forma independiente. Partiendo de un escenario invernal puede adaptarlo y mostrar cómo se vería en verano, y lo mismo puede hacer en una misma escena de día y mostrarla de noche.Esta tecnología resulta útil para llevar a cabo transformaciones completas de escenas concretas de una manera rápida sin sacrificar demasiado el realismo de aquellas,  pero lo más importante es que NVIDIA ha logrado un nivel impensable hasta ahora.Lo dicho significa que esta inteligencia artificial está muy por delante de todos sus equivalentes anteriores, ¿pero que aplicaciones prácticas tendría? Según la propia NVIDIA esta tecnología será útil aplicada a coches autónomos, ya que permitiría hacer una recopilación de diferentes escenarios posibles para mejorar el sistema de conducción de aquellos.Más información: Hexus.
2 comentarios3 shares
05/12/2017Isidro Ros
GIGABYTE lanza la Aorus GeForce GTX 1070 Ti, especificaciones

GIGABYTE lanza la Aorus GeForce GTX 1070 Ti, especificaciones

La conocida ensambladora ha presentado oficialmente la Aorus GeForce GTX 1070 Ti, una nueva tarjeta gráfica de gama alta con diseño personalizado que cuenta con unas especificaciones lo bastante buenas como para mover juegos en 4K sin problemas.A nivel de diseño la Aorus GeForce GTX 1070 Ti tiene un acabado más sencillo que los modelos "Extreme" algo que sin duda debería tener efectos positivos en el precio (más económica), aunque GIGABYTE no ha hablado de cuánto costará este modelo así que no podemos concretar nada todavía.El sistema de disipación es bastante clásico. Tenemos un radiador de aluminio sobre el que se posicionan tres ventiladores de gran tamaño para conseguir un alto nivel de enfriamiento, mientras que en la parte trasera se encuentra una placa metálica que aporta solidez y contribuye a las tareas de disipación del calor.La tarjeta también incluye un sistema de iluminación LED RGB que le da un toque de color, monta un VRM de 6+2 fases y utiliza un único conector de alimentación de 8 pines como el modelo de referencia en lugar de dos conectores de 8 pines como otras versiones personalizadas.Por lo demás cuenta con las especificaciones básicas de una GTX 1070 TI estándar y no viene con overclock de casa, por lo que es el usuario el que tendrá que jugar con las frecuencias de reloj. Repasamos sus características antes de terminar:2.432 shaders. 152 unidades de textura. 64 unidades de rasterizado. Bus de 256 bits. 8 GB de memoria GDDR5 a 8 GHz. Frecuencias de 1.607 MHz-1.683 MHz, modo normal y turbo.Más información: TechPowerUP!
0 comentarios9 shares
02/12/2017Isidro Ros
Microsoft quiere a NVIDIA en el Windows sobre ARM

Microsoft quiere a NVIDIA en el Windows sobre ARM

Los primeros equipos con el Windows sobre ARM están a punto de llegar al mercado y como sabes, estarán motorizados exclusivamente por chipsets de Qualcomm, Snapdragon 835 o superiores.No debería haber sido así si Microsoft hubiera logrado convencer a otros partners de la conveniencia de la entrada en esta plataforma que ofrecerá soporte completo a chips ARM con emulación de aplicaciones x86. Microsoft soporta desde hace muchos años la arquitectura RISC de ARM que arrasa en móviles, tablets o embebidos, pero la novedad de este Windows 10 sobre ARM es la posibilidad de ejecutar tanto aplicaciones universales (UWP), como las x86, en este caso emuladas.Nos cuentan que Microsoft intentó fichar a NVIDIA como motorizador, pero el gigante verde le dio calabazas al menos para la primera generación de estos equipos. La mayor preocupación de NVIDIA fue la -previsible- falta de interés de los clientes y la competencia de un Snapdragon 835 que es -para la mayoría- el mejor chipset móvil del mercado.NVIDIA no fue el único. MediaTek, el otro gran fabricante de chipset ARM, descartó su participación al menos en sus inicios, por ser “un proyecto arriesgado que deriva de un experimento fallido desde 2012″, en referencia al fiasco del Windows RT.Veremos. Los primeros resultados de rendimiento son decepcionantes. Aunque tendrán una mayor optimización en los equipos comerciales y en todo caso estos equipos no están destinados a batir récords de rendimiento, los primeros resultados de estos Windows sobre ARM confirman las dudas que tenemos de su futuro.Por otro lado, hay centenares de equipos en el mercado con Windows 10 estándar, bajo coste, hardware de Intel o AMD, corriendo aplicaciones nativas sin necesidad de emular. Aventura de difícil pronóstico. 
3 comentarios5 shares
30/11/2017Juan Ranchal
GeForce GTX 1060 de 3 GB y GTX 1060 de 6 GB, ¿cuál debería elegir?

GeForce GTX 1060 de 3 GB y GTX 1060 de 6 GB, ¿cuál debería elegir?

Las GeForce GTX 1060 de 3 GB llegaron al mercado rodeadas de una cierta polémica, sobre todo por el recorte de memoria gráfica que presentan frente a sus rivales directos de AMD (Radeon RX 470 y 570 de 4 GB) y por utilizar una versión recortada del núcleo gráfico GP106.En general las GeForce GTX 1060 de 6 GB no sólo doblan la memoria gráfica del modelo anterior, sino que introducen una mejora a nivel de especificaciones que las convierte en un modelo que debería haber sido comercializado con un nombre diferente, algo que los consumidores y algunos medios hemos criticado abierto.La diferencia de precio que existe entre las GeForce GTX 1060 de 3 GB y las de 6 GB es actualmente bastante grande, ya que las primeras se pueden encontrar por unos 215 euros y las segundas rondan los 289 euros.Estamos hablando de una diferencia de precio de 74 euros, una cifra considerable que debemos tener siempre presente para poder valorar adecuadamente lo que ofrece una y otra tarjeta en relación precio-prestaciones.La GTX 1060 de 6 GB está mejor preparada para el futuro y sin duda aguantará mejor el tipo cuando se produzca la llegada de Xbox Two y PS5, pero eso es algo que no ocurrirá hasta dentro de dos o tres años como mínimo, lo que significa que supone una inversión muy a largo plazo que podríamos no rentabilizar adecuadamente.Por su parte la GTX 1060 de 3 GB está más enfocada al presente y ofrece un buen valor para lo que cuesta. Con ella es posible jugar a cualquier título actual en 1080p y calidades máximas, aunque si queremos mantener 60 FPS fijos tendremos que reducir un poco los ajustes en algunos casos concretos.En el vídeo adjunto podéis ver que la GTX 1060 de 6 GB logra en el mejor de los casos una diferencia de 10 FPS más que la GTX 1060 de 3 GB, lo que unido a esa gran diferencia de precio nos permite concluir que la segunda es mejor opción actualmente en términos de rendimiento por cada euro invertido.Os recordamos que ambas tarjetas tienen las mismas especificaciones base y que se diferencian en los siguientes puntos:3 GB de GDDR5 frente a 6 GB de GDDR5. 1.152 shaders frente a 1.280 shaders. 72 unidades de texturizado frente a 80 unidades de texturizado.
23 comentarios4 shares
20/11/2017Isidro Ros
[ ]