GPGPU » MuyComputer
[ GPGPU ]
NVIDIA alimenta el superordenador más potente con sus Tesla K20X

NVIDIA alimenta el superordenador más potente con sus Tesla K20X

NVIDIA acaba de anunciar su nueva familiar de aceleradoras Tesla K20 que llegan como el dispositivo más rápido en este formato. Prueba de ello es Titan, el superordenador más rápido según TOP500 que acaba de desvelar NVIDIA en SC12.Este superordenador monta nada menos que 18.688 GPUs Tesla K20X y está montado en el Oak Ridge National Laboratory.Este superordenador es capaz de rendir 17,59 petaflops en LINPACK lo que le convierte en el más rápido del mercado.Este rendimiento es posible gracias al uso de las GPUs NVIDIA Tesla K20, que llegan en dos modelos:Tesla K20X - 3,95 teraflops single-precision y 1,31 teraflops double-precision Tesla K20 - 3,52 teraflops single-precision y 1,17 teraflops double-precision[expand] SALT LAKE CITY—SC12—Nov. 12, 2012— NVIDIA today unveiled the NVIDIA® Tesla® K20 family of GPU accelerators, the highest performance, most efficient accelerators ever built, and the technology powering Titan, the world’s fastest supercomputer according to the TOP500 list released this morning at the SC12 supercomputing conference. Armed with 18,688 NVIDIA Tesla K20X GPU accelerators, the Titan supercomputer at Oak Ridge National Laboratory in Oak Ridge, Tenn., seized the No. 1 supercomputer ranking in the world from Lawrence Livermore National Laboratory’s Sequoia system with a performance record of 17.59 petaflops as measured by the LINPACK benchmark.(1) Tesla K20 – Performance, Energy-Efficiency LeadershipBased on the revolutionary NVIDIA Kepler™ compute architecture, the new Tesla K20 family features the Tesla K20X accelerator, the flagship of NVIDIA’s Tesla accelerated computing product line. Providing the highest computing performance ever available in a single processor, the K20X provides tenfold application acceleration when paired with leading CPUs.(2) It surpasses all other processors on two common measures of computational performance – 3.95 teraflops single-precision and 1.31 teraflops double-precision peak floating point performance. The new family also includes the Tesla K20 accelerator, which provides 3.52 teraflops of single-precision and 1.17 teraflops of double-precision peak performance. Tesla K20X and K20 GPU accelerators representing more than 30 petaflops of performance have already been delivered in the last 30 days. This is equivalent to the computational performance of last year’s 10 fastest supercomputers combined. “We are taking advantage of NVIDIA GPU architectures to significantly accelerate simulations in such diverse areas as climate and meteorology, seismology, astrophysics, fluid mechanics, materials science, and molecular biophysics.” said Dr. Thomas Schulthess, professor of computational physics at ETH Zurich and director of the Swiss National Supercomputing Center. “The K20 family of accelerators represents a leap forward in computing compared to NVIDIA’s prior Fermi architecture, enhancing productivity and enabling us potentially to achieve new insights that previously were impossible.” Additional early customers include: Clemson University, Indiana University, Thomas Jefferson National Accelerator Facility (Jefferson Lab), King Abdullah University of Science and Technology (KAUST), National Center for Supercomputing Applications (NCSA), National Oceanic and Atmospheric Administration (NOAA), Oak Ridge National Laboratory (ORNL), University of Southern California (USC), and Shanghai Jiao Tong University (SJTU). Energy-Efficiency for “Greener” Data CentersThe Tesla K20X GPU accelerator delivers three times higher energy efficiency than previous-generation GPU accelerators and widens the efficiency advantage compared to CPUs. Using Tesla K20X accelerators, Oak Ridge’s Titan achieved 2,142.77 megaflops of performance per watt, which surpasses the energy efficiency of the No. 1 system on the most recent Green500 list of the world’s most energy-efficient supercomputers.(3) Fastest on Broadest Range of Data Center ApplicationsThe Tesla K20 family accelerates the broadest range of scientific, engineering and commercial high performance computing and data center applications. Today, more than 200 software applications take advantage of GPU-acceleration, representing a 60 percent increase in less than a year. When Tesla K20X GPU accelerators are added to servers with Intel Sandy Bridge CPUs, many applications are accelerated up to 10x or more, including:(4) MATLAB (engineering) – 18.1 times faster Chroma (physics) – 17.9 times faster SPECFEM3D (earth science) – 10.5 times faster AMBER (molecular dynamics) – 8.2 times faster More information about the Tesla K20 GPU accelerators is available at NVIDIA booth 2217 at SC12, Nov. 12-15, and on the NVIDIA high performance computing website. Users can also try the Tesla K20 accelerator for free on remotely hosted clusters. Visit the GPU Test Drive website for more information. AvailabilityThe NVIDIA Tesla K20 family of GPU accelerators is shipping today and available for order from leading server manufacturers, including Appro, ASUS, Cray, Eurotech, Fujitsu, HP, IBM, Quanta Computer, SGI, Supermicro, T-Platforms and Tyan, as well as from NVIDIA reseller partners. [/expand]
1 comentario60 shares
12/11/2012Jesús Maturana
Intel presenta Xeon Phi, antes conocido como Knights Corner

Intel presenta Xeon Phi, antes conocido como Knights Corner

Intel anunció ayer su nueva línea de productos Xeon Phi con la que pretende hacer sombra a productos como NVIDIA Tesla gracias a la arquitectura MIC (Many Integrated Cores). Se trata de una tarjeta PCIe que sirve para acelerar tareas gracias a su gran número de hilos de proceso en paralelo.Presentados inicialmente como Knights Corner, el Xeon Phi será el primer producto comercial con arquitectura Intel MIC fabricado bajo procesos tecnológicos 3-D Tri-Gate P1270 de 22 nanómetros, ya usado en los chips de consumo Ivy Bridge.Con las tarjetas GPGPU Tesla de NVIDIA en la diana y con las estaciones de trabajo como destinatarios, Intel pondrá a la venta a comienzos de 2013 una tarjeta con formato PCIe que incluirá los 50 núcleos de procesamiento nativo x86 de los Xeon Phi funcionando a frecuencias de 1,2 a 1,6 GHz. Incluirán 8 Gbytes de memoria GDDR5 y superarán la barrera del TFLOP en operaciones de coma flotante de doble precisión.Desarrollo que también podrá verse en servidores como ‘Stampede’ del Texas Advanced Computing Center. Un cluster Linux HPC que contará con procesadores Xeon E5 adicionales y que espera superar un rendimiento de 10 TFLOPS.Intel asegura que 44 compañías utilizarán estos Xeon Phi, incluyendo a Bull, Cray, Dell, HP, IBM, Inspur, SGI y NEC. El gigante Intel tiene grandes ambiciones para este desarrollo que será capaz de alcanzar la era del Exascale en 2018.
0 comentarios10 shares
19/06/2012Jesús Maturana
Aceleración GPGPU NVIDIA ofrece mejoras en rendimiento de hasta 5,6x

Aceleración GPGPU NVIDIA ofrece mejoras en rendimiento de hasta 5,6x

El pasado evento SuperComputing 2011 que se llevó a cabo el pasado mes de noviembre trajo consigo un programa para desarrolladores mediante el cual podían probar de manera gratuita durante 30 días las mejoras del compilador con directivas PGI para gráficas NVIDIA Tesla GPU. La compañía garantizaba una mejora de rendimiento en las aplicaciones de 2x y ya tenemos resultados de varios usuarios.Los informes iniciales de los participantes en ese programa incluyen mejorías que llegan hasta 5,6x el rendimiento inicial de esas aplicaciones. Sin duda una mejora más que notable, y muestra de lo que es posible conseguir con la aplicación del lenguaje OpenACC de programación para aprovechar las capacidades de aceleración GPU.Un alumno de postdoctorado en Netherlands Institute for Radio Astronomy (ASTRON) y University of Groningen ha conseguido mejorar una aplicación que hace uso de datos recopilados por millares de antenas del telescopio LOFAR. Con cinco días utilizando las nuevas directivas PGI, han conseguido mejorar la aplicación multiplicando por 5,6 el rendimiento inicial tras 5 días de uso.Un fabricante de sistemas de navegación ha mejorado en tan sólo una semana la aplicación de detección de objetos en tiempo real haciéndola 5 veces más rápida.Un investigador de University of Texas en San Antonio está intentando mejorar el entendimiento de los efectos de sustancias en proteínas y ha conseguido una mejora de duplicar el rendimiento en sólo un día.
0 comentarios0 shares
07/12/2011Jesús Maturana
Las mejores gráficas de todos los tiempos

Las mejores gráficas de todos los tiempos

Hoy en día podemos los gráficos de última generación están disponibles para todos los públicos por precios muy asequibles, pero aún así la batalla por el mercado de las tarjetas gráficas sigue haciendo que los grandes fabricantes -NVIDIA, AMD e Intel- saquen al mercado nuevos modelos cada poco tiempo. La historia, no obstante, está repleta de tarjetas gráficas que cambiaron las reglas del juego.Y eso es lo que quiere reflejar un interesante artículo de Tom's Hardware en el que hacen un repaso por las "23 tarjetas gráficas más importantes de todos los tiempos". En dicho repaso comienzan hablando de la 3dfx Voodoo 1, una gráfica con una GPU a tan solo 50 MHz y 4 Mbytes de RAM que solo ofrecía soporte 3D: de hecho, había que usarla en combinación con otra gráfica 2D, porque era incapaz de correr Windows por sí sola.Ese primer hito se vería luego seguido de los primeros lanzamientos de NVIDIA con sus Riva 128 y las Riva TNT, a las que seguirían la serie NVIDIA GeForce que de hecho se ha mantenido hasta nuestros días. ATI llegó algo más tarde al mercado, y lo hizo con éxito con las ATI Radeon 9700 Pro, que iniciaron la verdadera guerra de potencia que está presente en nuestros días.El repaso permite pues comprobar cómo esa evolución del mercado de las gráficas ha sido espectacular, e incluso más notoria a nivel técnico que la de los microprocesadores, sobre todo si tenemos en cuenta que hoy en día la computación GPGPU es una realidad que comienza a dar frutos en entornos  de computación masiva: las gráficas ya no solo se limitan a darnos mejores resoluciones y tasas de fotogramas por segundo para los juegos: ayudan en muchas otras tareas que permiten al procesador principal dedicarse a otros menesteres.
0 comentarios18 shares
22/08/2011Javier Pastor
AMD te enseña a programar con OpenCL

AMD te enseña a programar con OpenCL

AMD  ha anunciado un nuevo conjunto de herramientas de desarrollo de software y soluciones que permiten a los desarrolladores optimizar sus aplicaciones para estándares OpenCL.Estas herramientas mejoradas sientan las bases para que las empresas de software se den cuenta del verdadero potencial de la familia de Unidades de Procesadores Acelerados (APUs) de AMD Fusion.Como resultado, los desarrolladores pueden dar vida a nuevas e innovadoras experiencias como vídeo en alta definición, juegos en 3D, video conferencia e intuitivas interfaces de usuario, para diferenciar realmente sus aplicaciones en el mercado.Entre las nuevas ofertas está el producto gDEBugger, que fue creado por expertos del  nuevo centro de investigación israelí de AMD, basados en la adquisición por parte de AMD a la empresa Graphic Remedy en octubre de 2010.gDEBugger es un avanzado depurador y analizador de memoria OpenCL. El lanzamiento  del nuevo gDEBugger de AMD proporciona a los desarrolladores la capacidad de depurar el kernel OpenCL que se ejecuta en las GPUs de AMD y el paso a través de su código fuente, mientras que se examinan las variables y datos kernel. Este producto es un plug-in diseñado para trabajar con Microsoft Visual Studio®,incluye todas las prestaciones y capacidades anteriores al gDEBugger.Otras soluciones de desarrollo incluyen a utilidades como Parallel Path Analyzer(PPA),  Global Memory for Accelerators (GMAC) y las herramientas del administrador de tareas, que están siendo desarrolladas por Multicoreware en colaboración con AMD. Se espera que  estas nuevas herramientas y soluciones estén disponibles en beta durante el tercer trimestre de este año,  y están diseñados para hacer el desarrollo OpenCL GPU más fácil y  eficiente.El Parallel Path Analyzer (PPA) es una herramienta avanzada de perfiles para el desarrollo de aplicaciones que optimizan tanto la carga de GPU como de CPU. El PPA visualiza transferencias de datos y la ejecución del kernel, identifica las rutas críticas de todo el sistema  y localiza dependencias de datos.La API Global Memory for Accelerators (GMAC) proporciona un marco en el que un desarrollador puede crear aplicaciones aprovechando las inmensas capacidades de cálculo de OpenCL, pero sin la sobrecarga de tener que gestionar explícitamente los múltiples bufers de datos a través de los espacios entre la GPU y la CPU.La API del Administrador de tareas proporciona un marco para la gestión de las tareas de cálculo en un entorno heterogéneo de múltiples núcleos. Los kernels OpenCL se pueden programar automáticamente para ejecutarse en un dispositivo disponible y apropiado de tareas, proporcionando un equilibrio en la carga dinámica, optimizando el uso de los recursos informáticos disponibles y eliminando la carga explícita de  manipulación de programación.Las nuevas herramientas amplían la sólida línea de soluciones de desarrollo de AMD que pueden consultarse en la página web AMD Developer Central, incluyendo los kits de desarrollo de software, bibliotecas, compiladores, webinars y apoyo educativo.AMD ha puesto a disposición de usuarios y desarrolladores los siguientes recursos para aprovechar estas potentes herramientas:Vídeos de formación OpenCL  en YouTube Documentación paralela en AMD Developer Central Más detalles sobre gDEBugger Ver emisiones por Internet de la apertura en la cumbre de desarrolladores AMD Fusion Más detalles sobre herramientas Multicoreware Más detalles sobre las APUs AMD Fusion
0 comentarios8 shares
13/06/2011Javier Pastor
Especificaciones Radeon HD 6990

Especificaciones Radeon HD 6990

La nueva gráfica AMD Radeon HD de doble núcleo está a punto de llegar al mercado y ya tenemos imagen oficial, que os mostramos ayer, y una filtración de la presentación de prensa con las especificaciones finales. Sin duda alguna va a ser una gráfica muy potente y parece que AMD se ha tomado su tiempo para pulir los drivers y mejorar la funcionalidad SLI interna entre ambos chips que llegará a duplicar rendimiento a NVIDIA GTX 580 en determinados juegos. Veamos de qué es capaz la nueva gráfica Radeon HD.El modelo Radeon HD 6990 dispone de dos GPUs en la misma placa de la familia AMD Cayman configuradas en CrossFire interno. Dicha GPU es la misma que integran los modelos Radeon HD 6950 y Radeon HD 6970.El modelo Radeon HD 6990 dispone de un total de 3.072 (1.536x2) stream processsors trabajando a 830 MHz. Las memorias trabajarán a 1.250 MHz (5 GHz efectivos) y montará 2 Gbytes GDDR5 por cada GPU, es decir, suma un total de 4 Gbytes de memoria de vídeo. La placa disfruta de cuatro salidas de vídeo miniDisplayPort y una DVI. Habrá variantes con overclock de serie y sus especificaciones son mostradas en la siguiente imagen: Las dos GPUs que montan suman un total de 2,64 millones de transistorres. que consumirán como mucho 450W gracias a dos conectores de 8 pines que complemententan la alimentación del bus PCIe.Si hablamos de rendimiento en aplicaciones DirectX 9, DirectX 10/10.1, DirectX 11 y OpenGL la nueva gráfica Radeon HD 6990 se muestra como media un 67% más rápida que el modelo NVIDIA GTX 580, el más potente hasta la fecha. En algunos casos duplica el rendimiento con 110% más. El modelo con overclock muestra un aumento de rendimiento de hasta un 8% más.
1 comentario1 shares
01/03/2011Jesús Maturana
APU AMD Fusion acelerará física

APU AMD Fusion acelerará física

Según parece la nueva hornada de chips AMD Fusion que integran chip gráfico, CPU y controladora de memoria en el mismo encapsulado serán capaces de acelerar física en juegos de manera inminente gracias a una nueva serie de drivers, pudiendo quedar como chip gráfico secundario. El chip gráfico integrado es más que suficiente para gestionar la reproducción de contenidos HD mediante aceleración hardware, sin embargo en el terreno de juegos se queda algo corto en resoluciones y detalles altos.Por ello, un usuario avanzado probablemente instalará una gráfica adicional en el sistema y el poder utilizar la gráfica integrada en AMD Fusion para otras tareas, como la aceleración física, será una ventaja añadida.Manju Hedge es el vicepresidente corporativo de la Experiencia Fusion en AMD. Curiosamente, la trayectoria de Hedge está muy ligada a la computación GPGPU, y más en particular a PhysX. Fue el cofundador de Ageia, compañía que fue adquirida por NVIDIA, por donde pasó Hedge y finalmente ha acabado en AMD trabajando en el framwork OpenCL que utiliza la compañía para acelerar física.El motor Bullet Physics de AMD permite crear impresionantes efectos físicos que han sido utilizados en películas como 2012, el equipo A o Hancock. También hay desarrolladores que lo han implementado para títulos como Grand Theft Auto IV, Red Dead Redemption y Toy Story. La ventaja frente a PhysX es que es una implementación OpenCL, no cerrada y que permite la distribución de carga entre CPU y GPU de manera inteligente.
0 comentarios0 shares
19/02/2011Jesús Maturana
[ ]