CUDA » MuyComputer
[ CUDA ]
NVIDIA GeForce GTX 670

NVIDIA GeForce GTX 670

Si bien ya os hemos ofrecido los datos filtrados de las gráficas NVIDIA GeForce GTX 670 hoy es el día en el que se ha hecho su presentación oficial. La GPU que da vida a esta tarjeta es el GK104 28nm Kepler de NVIDIA, es decir, el mismo que el que monta la GTX 680 y el modelo de doble GPU GTX 690.En esta tarjeta gráfica el chip llega con varios CUDA cores desactivados y frecuencias de funcionamiento más reducidas que las de los modelos mencionados anteriormente.El chip GK104 disfruta de 1.536 CUDA Cores mientras que en el modelo GTX 670 sólo llegan activos 1.344. La otra diferencia es la frecuencia, que se queda en 915 / 980 Boost MHz frente a los 1.006  / 1.058 Boost MHz de la GTX 680.El resto de especificaciones se completan con 2 Gbytes de memorias GDDR5 trabajando a 6 GHz e interfaz de 256 bits lo que ofrece un ancho de banda final de 192,2 Gb/s y una tasa de relleno de texturas de 102,5 millones/s.La tarjeta disfruta de cuatro salidas de vídeo, doble DVI, HDMI y DisplayPort. El modelo de referencia de NVIDIA utiliza dos ranuras y monta un disipador que hace uso de un blower que coge aire del interior de la caja y tras pasar por el disipador de la GPU es expulsado al exterior de la misma.Os dejamos un primer contacto con varios modelos GeForce GTX 670 de distintos fabricantes y os avanzamos que en breve probaremos la gráfica en nuestro Laboratorio:NVIDIA GeForce GTX 670 2 GB @ techPowerUp! ASUS GeForce GTX 670 Direct CU II 2 GB @ techPowerUp! Palit GeForce GTX 670 JetStream 2 GB @ techPowerUp! Galaxy GeForce GTX 670 Gainward GeForce GTX 670 Zotac GTX 670 AMP! Edition Point of View GeForce GTX 670 MSI GeForce GTX 670 EVGA GeForce GTX 670 PNY XLR8 GeForce GTX 670 La GPU hace gala de las tecnologías propias de NVIDIA como son 3D Vision, 3D Vision Surround, CUDA, PhysX, 3-way SLI y aparte es compatible con DirectX 11, OpenGL 4.2 y PCI Express 3.0.La tarjeta GeForce GTX 670 tiene un precio recomendado de 329€ + IVA.
1 comentario25 shares
10/05/2012Jesús Maturana
NVIDIA GeForce GTX 560

NVIDIA GeForce GTX 560

Ficha técnica Fabricante: NVIDIA Modelo: GeForce GTX 560 Web: www.nvidia.es Precio: 199 dólares. CUDA Cores: 336 Memoria: 1 Gbyte GDDR5.La compañía NVIDIA acaba de presentar un nuevo modelo de tarjeta gráfica que entra de lleno en el mercado de gama media entre los modelos GeForce GTX 560 Ti y GeForce GTX 460. Se trata de una gráfica que tendrá un coste de 199 dólares y que ofrece soporte para la totalidad de tecnologías patentadas NVIDIA: PhysX, 3D Vision, SLI y Surround, además de DirectX 11 y aceleración GPU CUDA.El modelo de referencia de la compañía integra una GPU con 336 CUDA Cores que trabajan a 810MHz con los shaders a 1.620 MHz y están alimentados por 1 Gbyte de memorias GDDR5 con bus de 256 bits que trabajan a una frecuencia de 4.008 MHz. El nuevo modelo entra para hacer frente a la gráfica de la competencia Radeon HD 6790.Promete potencia suficiente como para ejecutar juegos de última generación a resolución Full HD 1.080p.Disfruta de doble salida DVI, un HDMI y un conector D-Sub (VGA). Habrá modelos con 2 Gbytes de memoria a un precio más elevado y es que ya son varios los partners que han presentado sus nuevas gráficas, basadas en este modelo: ASUS, MSI, Palit, Point of View, PNY, Sparkle, Zotac entre otros.Se trata de una gráfica que ofrece una gran relación calidad-precio y que servirá como base para actualizaciones de equipo y también para montar equipos de potencia interesante en configuración SLI a un precio muy reducido.
0 comentarios8 shares
17/05/2011Jesús Maturana
NVIDIA presenta CUDA 4.0

NVIDIA presenta CUDA 4.0

El fabricante de tarjetas gráficas NVIDIA ha anunciado la disponibilidad de CUDA 4.0, la última revisión de su conjunto de herramientas para el desarrollo de aplicaciones paralelas que saquen provecho de la GPU. Uno de los objetivos de esta nueva versión es la de facilitar la implementación de soluciones que aprovechen el procesador gráfico en lugar de la CPU para aprovechar la potencia de estos micros, que siguen disponiendo de una potencia bruta muy superior a la de los procesadores actuales.  Este conjunto de herramientas son vitales para lograr acceder a la programación de aplicaciones que aprovechan la potencia de la GPU, un campo cada vez más interesante sobre todo en ámbitos científicos y en aquellos escenarios en los que los cálculos masivos pueden realizarse por procesadores gráficos, y no solo por las CPUs tradicionales.    En el anuncio oficial se indica que hay tres grandes mejoras integradas en CUDA 4.0:   Tecnología GPUDirect 2.0: ofrece soporte para la comunicación peer-to-peer entre las GPUs de un único servidor o estación de trabajo. Esto permite una programación multiGPU más rápida y sencilla, además de un mayor rendimiento de las aplicaciones.    Unified Virtual Addressing (UVA): esta tecnología ofrece un espacio de direcciones único tanto para la memoria principal como para la memoria disponible en las GPU, permitiendo también una mejor y más fácil programación paralela.    Librerías Thrust C++: estas nuevas librerías proporcionan una colección Open Source de potentes algoritmos C++ y de estructuras de datos que facilitan la programación para los desarrolladores de C++. Con Thrust, rutinas como el ordenamiento paralelo son entre 5 y 100 veces más rápidas que con la Standard Template Library (STL) y los Threading Building Blocks (TBB).    La versión Release Candidate de CUDA Toolkit 4.0 estará disponible de forma gratuita el próximo 4 de marzo según los representantes de NVIDIA, que indicaron que los desarrolladores miembros del CUDA Registered Developer Program podrán descargarla desde ese momento.  
0 comentarios0 shares
01/03/2011Javier Pastor
MSI N580GTX

MSI N580GTX

Ficha técnica Fabricante: MSI Modelo: MSI N580 GTX Procesador: GF110 Memoria: 1,5 Mbytes Conexiones: 2 x DVI, miniHDMI Web: www.msi.com Precio: 569 €La compañía MSI ha entrado en el mercado gráfico de alta gama con su modelo N580GTX -M2D15D5- basado en la segunda generación Fermi de NVIDIA, GeForce GTX 580. De esta manera se coloca en la cima de potencia gráfica por el momento. El nuevo modelo es una versión que pule los problemas de calentamiento de la generación anterior, teniendo un consumo mucho más reducido junto un rendimiento que le coloca a la par de gráficas doble GPU como Radeon HD 5970, en la cima del mercado gráfico.Después de la tardía llegada del modelo Fermi, GeForce GTX480, NVIDIA se puso manos a la obra con el siguiente chip, mejorando los problemas que traía consigo el anterior al tiempo que ha conseguido un nuevo hito en lo que a rendimiento bruto se refiere. MSI ha presentado la nueva N580GTX-M2D15D5 convirtiéndose en la gráfica de un sólo núcleo más rápida del mercado.La tarjeta que nos ha enviado MSI monta la GPU GF110 40nm con 512 CUDA cores compatible con DirectX 11 y NVIDIA 3D Vision Surround con una memoria de 1.536 Mbytes GDDR5 que ofrecen totalmente un rendimiento de mínimo 20% superior al de su predecesor.    Contenidos de la caja.    La gráfica de MSI dispone de un diseño muy similar al modelo de referencia. La compañía dispone de un modelo superior conocido como Twin Frozr II que integra un sistema de refriferación personalizado, con una serie de heatpipes y dos ventiladores que prometen un funcionamiento más silencioso y orientada a usuarios extremos. Lo más destacado es que la compañía ha decidido montar condensadores sólidos japoneses que prometen una mayor estabilidad y mejorar el límite de overclock.  Conexiones SLI y de alimentación.   Este modelo en particular llega a la línea más alta de gráficas, elitista, debido tanto al rango de precios como al rendimiento obtenido. El modelo en cuestión trabaja a unas frecuencias de referencia, 772 MHz para el núcleo y 4.008 MHz para las memorias.   Conexiones traseras y parte trasera del PCB.   Comparemos el rendimiento del modelo MSI con el modelo predecesor NVIDIA GTX480, AMD Radeon HD 6870, Radeon HD 5970 -doble GPU- en las tradicionales pruebas  3DMark06 y 3DMark Vantage. Además hemos medido su consumo tanto en reposo como en funcionamiento.    Como cabía esperar, nuestras pruebas con juegos no han hecho más que confirmar los resultados de los test sintéticos. La gráfica mueve sin dificultad cualquier título a resoluciones brutales y, ni siquiera con filtros activados, hemos podido ponerla en aprietos. Habrá que esperar a la nueva generación de títulos basados en DirectX 11 para sacarle el máximo partido a su potencial.ConclusionesEl modelo MSI N580GTX ofrece una interesante opción para usuarios avanzados que priorizen el rendimiento sobre cualquier otro factor. Dentro de la oferta disponible basada en la GTX580 es una alternativa a tener en cuenta debido al ensamblaje con condensadores sólidos que junto con la solución MSI Afterburner permite un overclock sencillo y con grandes posibilidades. Es un modelo caro, y para exprimir todo el rendimiento que es capaz de ofrecer se necesita un PC acorde. NVIDIA ha hecho una gran trabajo con el chip GF110 ya que el consumo se ha reducido radicalmente, mejorando incluso el consumo de la competencia y ofreciendo un rendimiento muy superior.MSI N580GTX es el claro ejemplo de producto estrella que sólo se ve ligeramente empañado por el precio. Por ello consigue una puntuación de 8.5 en nuestro laboratorio y, por tanto, es un producto recomendado si el presupuesto no es un problema.
0 comentarios0 shares
27/01/2011Jesús Maturana
Amazon EC2, ahora con GPUs

Amazon EC2, ahora con GPUs

La potencia de los servicios en la nube de Amazon aumenta ahora con una nueva e interesante oferta: la posibilidad de contratar instancias que además de las CPUs convencionales incluyen un par de GPUs para computación GPGPU. Esto permite convertir a estas instancias en verdaderos nodos de supercomputación con unas prestaciones perfectas para muchas aplicaciones de cálculo masivo. Si tu solución es compatible con la arquitectura CUDA de NVIDIA, este desarrollo de Amazon es muy interesante.    Amazon Web Services (AWS) permitirá ahora a los usuarios de su plataforma de computación en la nube a que saquen partido de la potencia de cálculo que los procesadores gráficos (GPU) pueden ofrecer.    En AWS se ha añadido una nueva instancia llamada Cluster GPU que se añade a la plataforma Elastic Compute Cloud (EC2), y que ofrece capacidad redimensionable de computación en la nube.   Además de aplicaciones de alto rendimiento, la nueva instancia también es perfecta para las necesidades de los profesionales del diseño, la animación 3D y el procesamiento de contenidos de vídeo, según Amazon.    El llamado "Cluster GPU Quadruple Extra Large Instance" integra un par de GPUs NVIDIA Tesla M2050 "Fermi", cada una con 448 núcleos de proceso y 3 Gbytes de RAM, y que pueden llegar a más de 1 TFLOP. Además se incluyen un par de Intel Xeon X5570 quad-core, 22 Gbytes de RAM y 1.690 Gbytes de almacenamiento local.   Eso sí, para aprovechar la potencia de estas instancias, las aplicaciones que se ejecuten en ellas deben ser compatibles con la plataforma GPGPU de NVIDIA, la llamada NVIDIA CUDA.    Los usuarios pueden pagar 2,10 dólares por hora de funcionamiento de la instancia, o bien reservar una instancia en la que se paga una tarifa fija (5.630 dólares por un año) y una cuota de uso por hora (0,74 dólares). Puede que no parezca demasiado barato, pero se trata de una oferta muy interesante para empresas que necesiten externalizar ciertos cálculos masivos aprovechando este servicio de Amazon.  
0 comentarios0 shares
15/11/2010Javier Pastor
NVIDIA CuDA para chips x86

NVIDIA CuDA para chips x86

GTC 2010. La compañía gráfica ha anunciado en la conferencia tecnológica que celebra en San José la extensión de sus herramientas de desarrollo a CPUs x86 en colaboración con PGI (The Portland Group). NVIDIA utiliza CuDA en sus chips gráficos para computación de propósito general utilizando el paralelismo y el soporte directo a procesadores x86 permitirá aceleración de ejecuciones de aplicaciones bajo CuDA en cualquier PC de consumo o servidores, sin necesidad de un chip gráfico de la firma.   NVIDIA pretende extender su lenguaje CuDA frente a DirectCompute o al más universal OpenCL y para ello creará un compilador CUDA-x86 desarrollado junto a PGI que podrá ejecutar CuDA en cualquier procesador x86 sin necesidad de utilizar un chip gráfico de la firma como ahora sucede.    El compilador CuDA-x86 podrá aprovechar los múltiples núcleos de las CPUs actuales y extensiones como SIMD de procesadores Intel o AMD. CuDA x86 será mostrado en el evento de supercomputación de noviembre aunque no se conoce cuando llegaría a estar disponible.   Tampoco su extensión a Mac OS X y Windows que ya tienen soporte nativo para CUDA aunque hasta ahora utilizando obligatoriamente un chip gráfico de la firma. Un buen movimiento de NVDIA aunque la licencia del nuevo compilador será cerrada como lo es la propia plataforma CuDA, frente al OpenCL, abierto y libre de royalties hoy en manos del grupo Khronos y apoyado por compañías como Apple y AMD.   
0 comentarios0 shares
22/09/2010Juan Ranchal
PhysX en CPU lastrado por NVIDIA

PhysX en CPU lastrado por NVIDIA

La compañía NVIDIA ha liderado en parte la carrera GPGPU al conseguir integrar en sus gráficas una arquitectura capaz de acelerar contenidos. PhysX es una implementación que acelera la física de juegos y la mejora es más que notable al correr sobre una gráfica NVIDIA compatible con CUDA. La compañía ofrece la posibilidad de ejecutar PhysX sobre CPU en ausencia de gráfica NVIDIA compatible, pero según parece, no está nada optimizado, hecho que beneficia a la propia compañía.   Está claro que NVIDIA y PhysX marcan la diferencia en juegos que lo implementan, ya que la mejora no es sólo gráfica, sino en cuanto a experiencia general del juego, y realidad de movimientos, explosiones, etc. Sin embargo cuando un juego con soporte PhysX no se ejecuta en un sistema con gráfica NVIDIA compatible con PhysX el rendimiento, como es de esperar es menor, ¿pero cuánto?.    Según la investigación de David Kanter de Real World Technologies, NVIDIA podría estar "haciendo trampa" a la hora de comparar las diferencias entre CPU y GPU ejecutando PhysX en un claro intento de sacar ventaja. La implementación PhysX que ofrece la compañía para CPU, es decir cuando PhysX corre vía software, está programada utilizando código x87.   Para que os hagáis una idea, estamos hablando de código que Intel dejó de utilizar en 2005 y que ha sido plenamente reemplazado por instrucciones SSE, soportadas por Intel en el año 2000 y por AMD en el año 2003. El código x87 es lento, y sigue soportado en las CPUs actuales por cuestión de retrocompatibilidad con aplicaciones antiguas. Resumiendo, no hay ninguna razón técnica para que NVIDIA ejecute PhysX sobre CPU en x87.   La actualización a SSE aceleraría el proceso de manera notable, aunque, claro, quizá eso no interese a la compañía.
1 comentario0 shares
12/07/2010Jesús Maturana
Guerra GPGPU: CUDA vs OpenCL

Guerra GPGPU: CUDA vs OpenCL

Dos de las tres tecnologías protagonistas en el terreno de la computación GPGPU -falta ATI Stream- han sido enfrentadas por la Universidad de Cornell para comprobar su rendimiento en la actualidad. Mientras que CUDA es la solución de NVIDIA para la aplicación de las GPUs de tarjetas gráficas a problemas de propósito general, OpenCL es un estándar universal que tiene como objetivo convertirse en el único modelo a seguir tanto por NVIDIA como por ATI, algo que a priori parece complicado.   Tanto ATI como NVIDIA han apoyado la aparición de OpenCL, pero a pesar de ello las dos empresas siguen empeñadas en apoyar sus propias propuestas de tecnologías GPGPU, y de hecho los mayores esfuerzos de NVIDIA y ATI no están en el desarrollo de OpenCL, sino de CUDA y de ATI Stream respectivamente.  Lo demuestra este estudio (disponible en PDF) de la Universidad de Cornell que ha comparado el rendimiento de CUDA 2.3 y de la implementación propia que NVIDIA ha hecho del estándar OpenCL, también en la versión 2.3.   En las pruebas han utilizado una NVIDIA GeForce GTX 260 y para el análisis han realizado una serie de procesos que permitían medir el número de operaciones realizadas por la GPU por unidad de tiempo, y también los tiempos que tardaron ambas tecnologías en completar las tareas.    El resultado, tal y como podría esperarse, favorece a la tecnología CUDA, que está totalmente ligado a las GPUs de NVIDIA y saca todo el partido a este tipo de microchips.   No obstante, los responsables del estudio indican que el desarrollo es básicamente el mismo cuando se trata de programar aplicaciones para CUDA o para OpenCL, ya que ambas interfaces de programación disponen de funcionalidades similares y trasladar el código del kernel entre una y otra necesita pocas modificaciones cuando se utilizan las herramientas para desarrolladores proporcionadas por NVIDIA.  
1 comentario0 shares
24/05/2010Javier Pastor
FASTRA II, PC de 12 TFLOPS

FASTRA II, PC de 12 TFLOPS

El superordenador FASTRA II hace uso de nada menos que 13 chips gráficos NVIDIA repartidos en 7 tarjetas para sumar todo ese potencial de proceso, nada menos que 12 TFLOPS, algo que han conseguido integrar dentro de un sobremesa con un coste de alrededor de 6.000 euros, en lugar de los millones que requeriría un superordenador en formato clúster tradicional. La computación GPGPU está dando alas a millones de proyectos como es el caso de la Universidad de Antwerp y su equipo FASTRA II.El primer superordenador FASTRA que montaron utilizaba cuatro tarjetas GeForce 9800 GX2, y a día de hoy se ha quedado corto para los proyectos de investigación que llevan a cabo en el Vision Lab de la Universidad de Antwerp. Por ello han decidido ampliarlo, preparando la segunda versión del mismo, bautizado como FASTRA II, que integra un total de 7 tarjetas gráficas en total, 6 del modelo GeForce GTX 295 (dos GPUs por tarjeta) y una GeForce GTX 275.La caja utilizada ha sido una Lian-Li PC-P80 junto con una placa base Asus P6T7 WS que ha necesitado de una BIOS proporcionada por ASUS específica para poder "manejar" tanta tarjeta gráfica. El sistema de alimentación es también importante ya que consta de una fuente de alimentación principal Thermaltake Toughpower de 1500 W y tres fuentes adicionales de 450 W. El equipo está basado en la plataforma X58 de Intel y monta un procesador Core i7, pero el gran poder de computación reside en los 12 TFLOPS que es capaz de rendir el sistema multiGPU.El equipo está enfocado al proceso de tomografías, sistema de tratamiento por imagen utilizado en medicina, que reconstruye imágenes 3D a partir de cientos de tomas 2D. Actualmente puede llevar incluso semanas a equipos tradicionales generarlas y por ello desde la Universidad de Antwerp están trabajando en ello.
3 comentarios2 shares
15/12/2009Jesús Maturana
NVIDIA presenta Fermi

NVIDIA presenta Fermi

En una espectacular keynote que inaguraba la GPU Technology Conference en San José (California, EE.UU.), NVIDIA ha desvelado sus propuestas de futuro. Estamos en el evento y hemos podido ver la primera demo real de la nueva arquitectura, presentada por el CEO de la compañía Jensen Huang. La presentación se ha emitido -por primera vez en la historia- en 3 dimensiones y ha estado llena de sorpresas y continuos aplausos antes las espectaculares demostraciones. Os contamos cómo lo vivimos en primera persona.   El evento comenzó con una vista atrás para evidenciar la increíble evolución de los gráficos en los últimos años, utilizando como ejemplo modelos de coches y camiones diseñados en 3D. En sólo 10 años pasamos de un vetusto camión de bomberos generado por unos cientos de polígonos a un increíble deportivo que hace imposible distinguir la frontera entre lo real y lo virtual. Tras el avance en simulación de físicas que estamos experimentando en los dos últimos años el reto ahora es crear entornos virtuales complejos que reaccionen en función de múltiples variables; reflejos que se generan dinámicamente, explosiones con comportamiento real, fluidos de reacciones perfectas, etc. Todo esto y mucho más se ha podido ver a lo largo de la conferencia de la mano de los mejores expertos del mundo.   Las tarjetas gráficas han pasado de tener un papel secundario a acaparar la primera plana en mundos tan aparentemente dispares como los videojuegos, la medicina o el diseño aeronáutico en muy poco tiempo. Basta echar un vistazo a la agenda de sesiones para comprobar cuántos profesionales están interesados en los próximos pasos de las nuevas GPU. Por contenidos, organización y calidad de los ponentes la GPU Technology Conference 2009 es un todo un éxito.    Jensen Huang protagonizó una keynote interesante y divertida a partes iguales.   La conferencia tuvo una estructura muy dinámica, con varias demos sobre el funcionamiento de la tecnología PhysX, una demostración de la nueva cámara 3D de Fujifilm (en cuyo éxito confía la gente de NVIDIA) y una sesión técnica donde se explicaban las ventajas de utilizar la combinación CPU + GPU a la hora de afrontar proyectos complejos y la evolución de CUDA.        El CEO de NVIDIA presenta Fermi.   Todo esto resultó el anticipo del gran anuncio; "Fermi", el nombre en clave de la nueva arquitectura de NVIDIA. Jensen Huang, CEO y cofundador de la compañía presentaba la primera tarjeta gráfica en fase de prototipo y nos invitó a descubrir su potencial con un espectacular render de un Bugatti en un escenario abierto. La perfección del modelado, el cálculo de reflejos al cambiar la perspectiva o abrir una puerta y la velocidad de renderizado maravilló a los asistentes que rindieron un sonoro aplauso. Os aseguramos que la calidad era realmente impresionante.    A esta le siguieron varias presentaciones donde pudimos comprobar el rendimiento y la velocidad en el cáculo de fisicas, movimiento de partículas (con una espectacular demo de dummies lanzados contra dos muros), fluidos y generación de entornos reales. La conferencia (junto a las más importantes de la GPU Tecnologhy Conference) se puede ver en la web de NVIDIA.    Con Fermi las nuevas GeForce, Quadro y Tesla darán un importante salto tecnológico y permitirá avanzar en multitud de campos donde CPGPU está presente. "Esta claro que las GPU ahora son procesadores de computación en paralelo con increíbles gráficos y no sólo un chip gráfico más" comentaba Jensen Huang acerca del lanzamiento. Estas son las características más relevantes de la nueva arquitectura Fermi.      - C++ que se une a los existentes C, Fortan, Java, Python, OpenCL y DirectCompute para programar la GPU.- Memoria ECC, un requisito clave para centros de datos y supercomputación que evitará errores en instalaciones a gran escala. - 512 núcleos CUDA que cumplen con el nuevo estándar de punto flotante IEEE 754-2008. - 3.000 millones de transistores con tecnología de 40 nanómetros. - Doble precisión en operaciones de coma flotante hasta 8 veces más rápida que en la actualidad - NVIDIA Parallel DataCache, dos cachés reales que aceleran el cáculo de procesos físicos, simulaciones, trazado de rayos, etc.- NVIDIA GigaThread Engine - Nexus, el primer entorno de desarrollo para computación paralela integrado con Microsoft Visual Studio.   Aunque fuentes de la compañía nos aseguraron que Fermi estará presente en toda la nueva gama de NVIDIA a día de hoy no está ni siquiera en producción. Detalles como las configuraciones, velocidades, memoria o precios finales son factores importantes que, de momento, la compañía no ha desvelado. Todo apunta a que tendremos que esperar al primer trimestre de 2010 para ver un producto comercial de NVIDIA con Fermi.    El Web Computing también estuvo presente en el evento.   Antes de finalizar Jensen Huang tuvo tiempo que ofrecernos algunas de las novedades en procesamiento paralelo y Web Computing entre las que destacamos la excelente evolución de los desarrollos con CUDA, las excelentes comparativas de rendimiento en computación con CPU y CPU + GPU y  la promesa de Johnny Liacono (Adobe) comentando que trabajan para Flash ofrecerá un mejor rendimiento con los ordenadores basados en la plataforma NVIDIA ION, ofreciendo incluso una demo de streaming en FullHD sobre un netbook.        El evento culminó con la presentación de algunos servicios web que ofrecen imágenes en tres dimensiones generadas en tiempo real, como un sistema que crea entornos realistas y un software para elegir la configuración de un coche y ver los cambios al instante. Jensen Hueng nos despedía con la siguiente frase: "hemos pasado de una GPU pensada para crear gráficos de ordenador a una GPU de propósito general".  Más información | NVIDIA   Conferencias en directo | Live webcast NVIDIA GTC  
0 comentarios0 shares
02/10/2009Tomás Cabacas
ATI Stream vs. CUDA

ATI Stream vs. CUDA

Actualmente está despegando la computación vía GPU, también conocida como GPGPU. En particular, estamos hablando de la aplicación de la potencia latente de la GPU para realizar tareas pesadas hasta ahora realizadas por la CPU. Las gráficas ATI disponen de la tecnología Stream mientras que NVIDIA usa CUDA y cada día hay más aplicaciones que aplican dichas posibilidades, Creative Suite 4 de Adobe y multitud de aplicación de recodificación de vídeos entre otros, pero, ¿qué rinde más Stream o CUDA?   Desde PCPerspective han realizado una completa comparativa entre distintos programas de recompresión de vídeo, muy demandantes en cuanto a potencia de proceso, que ofrecen la posibilidad de utilizar la aceleración mediante GPU gracias al soporte de ATI Stream y NVIDIA CUDA.    El equipo utilizado en las pruebas tiene una configuración base sobre la cual sólo cambia la tarjeta gráfica para las distintas pruebas:     -CPU: AMD Phenom II X3 720 Black Edition   -Placa base: Gigabyte MA770T-UD3P   -Tarjetas gráficas: eVGA 9800GTX+ / ATI Radeon 4770   -RAM: 2 x 2 Gbytes  OCZ Gold 4GB DDR3 1600   -Disco duro: Western Digital 160Gbytes SATA   -Fuente de alimentación: PC Power and Cooling 750W     -Sistema operativo: Windows Vista Ultimate 64 bits   -Driver NVIDIA 186.18   -Driver ATI: 9.6         ATI Stream.      NVIDIA CUDA.   Las pruebas realizadas al equipo con cada gráfica para comprobar las capacidades de recodificación de vídeo tanto de ATI Stream como de CUDA han tenido en cuenta varios puntos:     -Evaluar el uso de la CPU y determinar cómo influye el uso, o no, de GPGPU en la carga del sistema.   -Diferencias de rendimiento entre ATI Stream y CUDA.   -Calidad de imagen conseguida por ambos sistemas.     La primera aplicación que integró el soporte CUDA para la reconversión fue Cyberlink PowerDirector 7 al que posteriormente se añadió soporte para ATI Stream, es una aplicación muy sencilla de utilizar que una vez activado el soporte GPGPU actúa de forma transparente al usuario. Además de ello hay muchas animaciones que se pueden integrar durante la edición del vídeo que también son pre-renderizados por la GPU.  Comparativa de tiempos de recodificación.  Comparativa de carga de CPU y GPU.   La segunda aplicación es Cyberlink MediaShow Expresso del que ya os hablamos anteriormente. Se trata de un programa que dispone de unos perfiles de reconversión de vídeo para la gran mayoría de dispositivos del mercado y que, además, permite la aceleración GPGPU y utilizar las últimas extensiones SSE4 de procesadores como los Core i7.  Comparativa de tiempos de recodificación.  Comparativa de carga de CPU y GPU.   Para finalizar la aplicación utilizada es la que ATI integra con sus drivers, ATI Avivo Converter, que ha sido sólo probada con la gráfica ATI y comparada con una solución de reconversión gratuita, Handbrake (sólo CPU). Los resultados son muy interesantes, tomando como resultado general que las operaciones en las que la GPU ayuda se ven claramente beneficiadas con un recorte de tiempo. Según las gráficas de uso de CPU/GPU parece claro que ATI Stream aún no desarrolla todo el potencial que tiene la gráfica puesto que las cargas GPU son bastante bajas en comparación con las cargas GPU de CUDA.  Comparativa de tiempos de recodificación.  Comparativa de carga de CPU y GPU.   La comparación CUDA con ATI Stream, parece que esta última tiene unos resultados ligeramente mejores, aunque también hay que tener en cuenta la calidad de imagen, dato subjetivo, que parece que el resultado final es mejor por parte de NVIDIA. Ejemplos mostrando una recompresión con CUDA a la izquierda y con ATI Stream a la derecha:  Muestra de calidad CUDA (izqda) y ATI Stream (dcha).    Podríamos resumir el estado actual de los programas de recompresión que pueden hacer uso de ambas tecnologías en satisfactorio, con un gran ahorro de tiempo en realizar la tarea que con sólo la CPU. Las gráficas ATI rinden algo más, pero, de momento, a costa de sacrificar un poco de calidad, tal y como muestran las imágenes que hay sobre estas líneas.            
6 comentarios0 shares
10/08/2009Jesús Maturana
CUDA en AMD, ¿próximamente?

CUDA en AMD, ¿próximamente?

NVIDIA ha dejado entrever que está trabajando en hacer posible que otras plataformas sean capaces de correr CUDA, su tecnología de computación GPGPU patentada. Con otras plataformas queda bastante claro que se refieren a gráficas AMD. Actualmente hay varios estándares creados para computación GPGPU como OpenCL, AMD Stream, Microsoft DirectX Compute y CUDA, pero NVIDIA quiere beneficiarse de las ventas de gráficas AMD que soporten su estándar de computación GPGPU, cada vez más popular y que es capaz de correr lenguaje C.   Tanto AMD como NVIDIA ha desarrollado su propia apuesta dentro del mercado GPGPU, hablamos de CUDA por parte de la última y Stream por parte de AMD. Según podemos leer en Techradar, el científico jefe de NVIDIA, Bill Dally, ha afirmado que la compañía está trabajando en expandir el entorno de trabajo CUDA a otras plataformas. En palabras de Dally: “En el futuro serás capaz de correr C con extensiones CUDA en un mayor rango de plataformas, por lo que no pienso que haya una limitación fundamental". Aunque no confirmó el soporte de plataformas AMD si dejó caer que estaba familiarizado con algunos proyectos que permitirán correr CUDA en otras plataformas.   NVIDIA se ha ganado la confianza de un considerable número de desarrolladores de aplicaciones y hemos visto muchas extensiones para aplicaciones existentes  que pueden hacer uso de la potencia gráfica latente en las gráficas NVIDIA. Un buen ejemplo es Photoshop, pero también existen aplicaciones de reconversión de vídeos y un sinfín de desarrollos más que van naciendo día a día.   Una plataforma única GPGPU para correr aplicaciones o acelerar el funcionamiento de las mismas haría que los desarrolladores pudieran sacar al mercado mejores productos al tener que centrarse sólo en una. Eso evitaría la situación actual en la que compiten Stream por parte de AMD, CUDA por parte de NVIDIA, la solución de Microsoft o la solución abierta OpenCL. En palabras de Dally: "CUDA ha atraído mucho más la atención entre la gente que está programando aplicaciones paralelas".  
1 comentario0 shares
30/06/2009Jesús Maturana
[ ]