Conecta con nosotros

Análisis

Todo sobre NVIDIA GTC 2010

Un equipo de MuyComputer ha estado presente en la NVIDIA GTC 2010 (también tuvimos la oportunidad de asistir el año pasado, con la presentación de Fermi), un evento que ya es una referencia mundial desde el punto de vista tecnológico y científico. En este especial resumimos lo mejor de NVIDIA GTC 2010, repasando las presentaciones clave y los avances que se han anunciado durante la serie de conferencias celebradas en San José (California, EE.UU.). Así ha sido NVIDIA GTC 2010.

Publicado

el

Un equipo de MuyComputer ha estado presente en la NVIDIA GTC 2010 (también tuvimos la oportunidad de asistir el año pasado, con la presentación de Fermi), un evento que ya es una referencia mundial desde el punto de vista tecnológico y científico. En este especial resumimos lo mejor de NVIDIA GTC 2010, repasando las presentaciones clave y los avances que se han anunciado durante la serie de conferencias  celebradas en San José (California, EE.UU.). Así ha sido NVIDIA GTC 2010.

El evento GTC ( GPU Technology Conference) cobra forma y en esta edición de 2010 es ya una referencia imprescindible y consolidada para la comunidad investigadora y científica internacional. La palabra clave es CUDA, un API desarrollado por NVIDIA para aprovechar el paralelismo implícito en la tecnología de las tarjetas gráficas como acelerador para aplicaciones diseñadas para aprovecharlo.

 

 

Básicamente se trata de escenarios donde hay cantidades ingentes de datos sobre los que hay que realizar operaciones relativamente simples. El potencial es extraordinario a la vista de las demostraciones que ilustraron la keynote inaugural a cargo de Jen-Hsung Huang,CEO de NVIDIA. Desde cirugía robotizada, donde se acelera el procesamiento de imágenes, vital para ofrecer al cirujano una representación real y tridimensional de los órganos implicados en una intervención, hasta tecnologías para procesamiento de imágenes por parte de Adobe, que permiten enfocar y reenfocar las fotos capturadascon lentes especiales que captan la misma escena con diferentes ángulos deincidencia de la luz, o componer fotos 3D a partir de esa información almacenada en el sensor de la cámara.

 

 


GPUs y la comunidad científica

 

La comunidad científica es una de las más exigentes en cuanto a necesidades de cálculo y esa exigencia se traslada de forma inmediata a los ordenadores con los que trabaja y las aplicaciones que utilizan para resolver los problemas que surgen durante sus investigaciones o sus simulaciones. Hasta ahora, sólo los superordenadores eran capaces de afrontar la resolución de estos problemas, aunque la forma de trabajar con ellos es un tanto complicada debido a la escasez de centros de supercomputación y al coste de los mismos. Por otro lado, los ordenadores convencionales no son capaces de ofrecer el rendimiento demandado por los investigadores. Ni siquiera las estaciones de trabajo convencionales lo son.

 

 

 

 

El motivo radica en la naturaleza de los problemas científicos, donde se parte de cantidades ingentes de datos que pueden, y preferiblemente deben procesarse en paralelo, mientras que los procesadores convencionales trabajan de un modo esencialmente secuencial. Eso sí, son capaces de realizar cálculos muy elaborados en cada hilo de ejecución, pero sólo pueden manejar unos pocos hilos en paralelo. Y lo que demandan los científicos es precisamente manejar muchos hilos de ejecución a la vez, aunque no se realicen cálculos tan complejos sobre ellos. Es algo así como enfrentarse a la tarea de llevar a 1.000 personas de un sitio a otro. No es tan importante poder llevar a cuatro personas de cada vez a 200 Km/h que poder transportar a los 1.000 en un solo viaje, aunque sea a 50 Km/h. Aunque desde luego que si es posible transportar a todos a la vez y a 200 por hora, mucho mejor.

 

 

 

Cuando NVIDIA empezó a hablar de CUDA y paralelismo en 2006, los científicos e investigadores rápidamente se mostraron interesados en una tecnología que por una fracción del coste de un superordenador podía ofrecer rendimientos de cálculo incluso superiores. De todos modos, en una primera etapa, la arquitectura de los chips GeForce de NVIDIA no estaba totalmente optimizada para aplicaciones GPU, y la arquitectura Fermi estaba llamada a ser la sucesora. Pero los retrasos de varios meses en la obtención de chips por problemas de fabricación y diseño fueron un obstáculo que puso en entredicho la credibilidad de NVIDIA, mientras AMD comercializaba sus tarjetas DX11 a todos los niveles en el mercado de consumo.

 

De todos modos, la arquitectura Fermi de NVIDIA llegó en forma del esperado chip con sus 3000 millones de transistores y una optimización notable para aplicaciones GPGPU, y esto se ha reflejado en un importante incremento de soluciones de hardware especificas dentro de las familias profesionales Quadro y Tesla. Al mismo tiempo, los usuarios residenciales se benefician de la adopción por parte de los desarrolladores de software, de aceleradores específicos para aplicaciones que van desde editores de video hasta navegadores de Internet, pasando por los juegos o ahora también programas como Matlab o 3DStudio mediante toolkits o plugins.

 

Las cuatro “patas” del negocio de NVIDIA. Tegra es la gran esperanza para movilidad.

 

En este evento GTC2010 fue posible comprobar cómo, con una simple tarjeta GTX 280 o las nuevas Fermi 460 o 480, con precios por debajo de los 500 euros, un departamento en una Universidad puede empezar a trabajar en proyectos de investigación que antes solo se podrían abordar mediante el uso de superordenadores, con todas las dificultades que ello conlleva en términos de logística  y presupuestos. A partir de ahí, lo que se necesita para llevar el proyecto a otros niveles de rendimiento es escalar el hardware con equipos Quadro o Tesla, con costes que aún están muy por debajo de los de un superordenador. Pero lo importante es que se puede empezar con pocos recursos, aunque usando las mismas herramientas de programación y desarrollo que se usarían con recursos mucho mayores. CUDA democratiza el calculo científico HPC de esta manera, y abre las puertas a proyectos en universidades y empresas que antes, sencillamente no podrían permitírselo.

 

Y lo curioso es que CUDA, aún no siendo un estándar, y estando “controlado” por una empresa privada como es NVIDIA, se estudia ya en más de 350 Universidades a nivel mundial y se ha convertido en el estándar de facto para las aplicaciones GPGPU. AMD, de momento, no ha movido mucho sus productos en esta área más allá de proyectos concretos y el apoyo a OpenCL. De todos modos, a partir del momento en el que CUDA se estudia en las universidades, se tiene un “semillero” de aceptación extraordinario. Los estudiantes que aborden proyectos laborales y de investigación en el futuro, buscarán hacerlo con lo que conocen mejor y se decantarán por NVIDIA y CUDA. Habrá que ver si en la práctica NVIDIA consigue sacar provecho de esta ventaja. Por lo pronto, fabricantes como Acer/Gateway están alineados alrededor de NVIDIA, y por ende de CUDA.

 

Eso sí, la tarea que la compañía está realizando y realizará durante los próximos años evangelizando y facilitando material a los investigadores, empresas y universidades es inconmensurable. Bueno, en realidad sí es cuantificable: 8 billones de dólares en I+D durante los próximos cinco años. Un dinero que viene del área de las tarjetas gráficas por un lado, y es de esperar que a no mucho tardar, de la parte de Tegra para el segmento de la movilidad por otro. El alineamiento de NVIDIA con ARM es total en este segmento, donde tendrá que competir con Intel y sus soluciones de movilidad, que aún no han demostrado ser la panacea para este complicado y exigente segmento.

 

NVIDIA GTC 2010 (II) >

 

 

Lo más leído