Noticias sobre Tarjetas Gráficas (GPU) - MuyComputer
[ Tarjetas Gráficas ]

ATI Radeon HD 4600, a escena

Hacía tiempo que se venía hablando de las nuevas gráficas de AMD, que se situarían un escalón por debajo de las poderosas Radeon HD 4800 pero que ofrecerían una relación precio/prestaciones excelente. Y ya las tenemos con nosotros. La nueva familia ATI Radeon HD 4600 inicia su andadura con los modelos Radeon HD 4650 y Radeon HD 4670, que por un precio inferior al de sus hermanas mayores prometen rendimientos muy destacables.   Aunque en el terreno de los procesadores no le esté yendo tan bien, lo cierto es que AMD está intratable en el sector de las tarjetas gráficas dedicadas, donde su impresionante familia ATI Radeon HD 4800 ha dejado en evidencia a los monstruos de NVIDIA, las GTX 260 y GTX  280. Y aprovechando esa ventaja han querido sacar al mercado una gama de tarjetas un escalón por debajo en rendimiento de sus existosas Radeon HD 4800, pero también en precio, lo que las orienta a un público más amplio.   Las ATI Radeon HD 4670 y Radeon HD 4650 disponen de 320 núcleos de procesamiento de flujo, y en ambos casos se basan en una GPU fabricada en tecnología de 55 nm. La primera es algo más potente y también consume algo más (TDP por debajo de 60W, 79 dólares) mientras que la 4650 es una tarjeta pensada para el usuario de a pie, ya que tanto su configuración como su precio (TDP inferior a 50W, tan sólo 69 dólares) permiten acceder a rendimientos impresionantes por un precio casi ridículo. En ambos casos se incluyen 512 Mbytes de memoria GDDR3, aunque probablemente veamos aparecer variantes (sobre todo en el caso de la 4670) con 1 Gbyte de memoria de vídeo.    No hay grandes novedades en cuanto a sus características tecnológicas puesto que se trata de versiones "reducidas" de las exitosas Radeon HD 4800, pero hay que destacar que precisamente por ello no tendremos que renunciar a las mejoras que esa gama introdujo. Soporte DX10.1, UVD 2.0, ATI Avivo HD, y la tecnología ATI PowerPlay para el ajuste automático de la GPU de forma que consuma lo justo en cada momento.    
0 comentarios0 shares
10/09/2008Javier Pastor
ATI apuesta por Directx 10.1

ATI apuesta por Directx 10.1

AMD anuncia que importantes desarrolladores de videojuegos como Electronic Arts o SEGA trabajan con sus equipos para aprovechar la potencia de su nueva gama de tarjetas gráficas ATI 3000 HD y ATI 4800 HD que soportan DirectX 10.1. Battleforge, un juego de estrategia en tiempo real diseñado por EA, y Stormrise, la nueva creación de SEGA, serán los primeros en llegar. La nueva generación de videojuegos está cada vez más cerca.   La nueva versión de las librerías de Microsoft incluye mejoras en el tratamiento 3D de imágenes y el totalmente compatible con el hardware de DirectX 10. Kevin Unangst, director de la división de juegos de Microsoft, se mostró muy satisfecho con la nuevas tarjetas de ATI: "Una de las ventajas de los juegos en PC es la velocidad a la que mejora la experiencia de juego. Las series Raedon HD 3000 y HD4800 mejoran significativamente los gráficos y ofrecen un mayor rendimiento."  Para mostrar las mejoras que ofrece DirectX 10.1 , AMD dio a conocer una demostración 3D en tiempo real llamada "Ping Pong" ( se puede ver en http://ati.amd.com/developer/demos/rhd3000.html) donde se puede apreciar las mejoras en la iluminación de polígonos.    Lo cierto es que el despegue del estándar DX10.1 no ha sido muy destacado hasta la fecha: NVIDIA ha ejercido su presión sobre los fabricantes para desviar la atención sobre las mejoras de la nueva especificación, y ya ha anunciado que pasará directamente a DX11.0, que probablemente veremos integrado en el futuro Windows 7. Así pues, queda por ver si finalmente los desarrolladores realmente apuestan por este tipo de títulos que se podrán aprovechar al máximo únicamente con las tarjetas gráficas de ATI.    
0 comentarios0 shares
26/08/2008Tomás Cabacas

Larrabee será una GPU de 2006

NVIDIA ha vuelto a la carga en su particular lucha contra Intel, y ahora afirma que el proyecto Larrabee que entre otras cosas permitirá a Intel ofrecer una GPU dedicada con este nuevo concepto multicore no valdrá para nada. Según los ingenieros de NVIDIA, el problema de la computación paralela que quiere resolver Intel con este versátil concepto de CPU es mucho más complejo de lo que ellos creen. Larrabee no podrá con ello.    Andy Keane, director del grupo de computación de NVIDIA, realizó unas declaraciones previas a las conferencias Nvision 08 que se celebrarán estos días y en las que NVIDIA tratará de impulsar su tecnología  y desarrollos. La lucha con Intel es singular en los últimos meses tras el anuncio de esta última de presentar Larrabee, un revolucionario concepto de CPU multipropósito y multinúcleo que entre otras cosas podrá convertirse como una GPU.    Eso planteará nuevas alternativas en el mundo de las tarjetas gráficas dedicadas, pero según los expertos de NVIDIA la solución de Intel no ofrecerá un rendimiento destacado. "Tal y como [el blogger y arquitecto de CPU] Peter Glaskowsky ha dicho, el "impresionante" Larrabee de 2010 tendrá aproximadamente el mismo rendimiento que las GPUs de 2006 de NVIDIA y ATI".   Según NVIDIA, la aproximación al problema de la computación paralela es mucho más complejo de lo que parece querer transmitir Intel, que durante el IDF habló de su entorno de desarrollo Intel Parallel Studio como parte de la solución. La otra parte será Larrabee, que como ya comentamos en MuyComputer es un concepto singular de CPU en la que los núcleos se derivan de los Pentium originales y en el que además la orientación precisamente es a ejecutar el máximo número de tareas concurrentes.    "Aún hay muchísimos datos de Larrabee por definir", explicó Keane. "Lo que no pueden decir es que "es una plataforma x86, así que permitirá resolver el problema de la computación paralela de forma total"". No sólo eso, explicaba Keane. "Mirad al PC: con un sistema operativo que no controlan y con aplicaciones que salen de todas partes... decir arbitrariamente que todo va a escalar a 32 núcleos me parece algo exagerado."
0 comentarios0 shares
25/08/2008Javier Pastor

Intel en 3D: ganaremos

Pat Gelsinger, uno de los altos directivos de Intel, ha declarado en el IDF que su intención con el proyecto Larrabee es, entre otras cosas, superar tanto a NVIDIA como a AMD/ATI en la competida lucha por los gráficos más potentes.  El diseño de esta peculiar plataforma va más allá de la de la ejecución de procesos gráficos, pero sin duda será una de las grandes características de Larrabee, un concepto de CPU muy prometedor.   La entrevista que uno de los redactores de Ars Technica ha mantenido con Pat Gelsinger ha servido para poder disponer de más detalles sobre Larrabee, el proyecto de Intel que pretende revolucionar el concepto de CPU multicore y multipropósito en la cual su función como GPU será especialmente destacable. ¿Qué se puede esperar del rendimiento de Larrabee en tareas gráficas?    Gelsinger respondió "queremos ganar. De modo que en escenarios de alta gama, como los que hay a la hora de ejecutar juegos -DX, OpenGL, etc.- ganaremos, Y cuando aprovechemos las ventajas de sus características únicas y algunas de las funciones más avanzadas que habilitará, esta tecnología brillará".   El redactor de Ars Technica no está tan seguro de ello, y afirma que el debut de Larrabee se producirá con un rendimiento que será aproximadamente un 20% menor al de las soluciones de NVIDIA y AMD/ATI, y creo que está en lo cierto, aunque es probable que el tremendo potencial de esta solución ponga contra las cuerdas antes o después a los dos líderes tradicionales. Obviamente ambas competidoras no se quedarán quietas, y los últimos desarrollos de ATI demuestran que hay margen para crecer. Especial IDF  
0 comentarios0 shares
21/08/2008Javier Pastor

HYDRA Engine, combina tus GPUs

El nuevo ingenio de la empresa LucidLogix presume de poder distribuir la carga de aplicaciones DirectX y OpenGL entre las GPUs presentes en el sistema, algo que va más allá de los sistemas SLI y CrossFire actuales de NVIDIA y AMD. El chip denominado Hydra Engine es capaz de aplicar algoritmos inteligentes que permiten distribuir la carga y combinar la potencia de varias GPUs distintas (mientras sean del mismo fabricante).    Las tecnologías multi-GPU actuales que proponen tanto ATI (con CrossFire) como NVIDIA (con SLI) dependen en gran medida de factores como los chipsets de estos fabricantes y la necesidad de usar tarjetas idénticas (o casi) para poder aprovechar dicha prestación, que combina la potencia gráfica de dos o más tarjetas y sus respectivas GPUs.    Esta aproximación podría cambiar radicalmente con la idea de la empresa LucidLogix, que ha desarrollado un chip llamado Hydra Engine que permite "diseccionar" las llamadas a funcione s DirectX  y OpenGL para modificarlas y enviarlas de forma distribuida e "inteligente" a las distintas GPUs presentes en nuestro PC.Una de las posibilidades de la tecnología es la de eliminar la necesidad de tener que contar con tarjetas prácticamente iguales para combinar la potencia gráfica de ambas. Por el momento no parece factible que podamos combinar una tarjeta de AMD/ATI con otra de NVIDIA, pero lo que sí parece muy probable es que podamos recuperar nuestra vieja gráfica de NVIDIA para combinarla con la que nos compramos recientemente. En PC Perspective han realizado un interesante análisis de esta tecnología, que aporta un nuevo concepto a la hora de distribuir la carga de las aplicaciones gráficas, y sobre todo, de los juegos.  
0 comentarios0 shares
20/08/2008Javier Pastor

NVIDIA se defiende

El problema que afecta a los chips gráficos G84 y G86 de NVIDIA podría ser mucho mayor de lo que esta firma ha admitido. Algo que pudimos contar hace unos días con unas graves acusaciones frente a las cuales NVIDIA está defendiéndose. En Ars Technica se han puesto en contacto con responsables de la compañía que se empeñan en negar que el problema afecta a todos estos chips, y que el problema afecta a un pequeño porcentaje.   Las acusaciones las hicieron los simpre cáusticos redactores de The Inquirer, que no se andan con chiquitas a la hora de criticar abiertamente las actividades de ciertas empresas. Esta vez la tomaron con NVIDIA, que hace un par de semanas publicó un anuncio oficial en el que admitía que habían descubierto ciertos problemas en sus chips gráficos -sin dar muchos más detalles-  y que habían previsto un gasto de 200 millones de dólares para solventar cualquier problema que pudiese surgir.El aviso no sólo iba a los consumidores, sino también al SEC (Security and Exchange Comission), algo que teóricamente es la forma correcta de actuar... si es que NVIDIA no mentía. En The Inquirer creen que sí lo han hecho, y que aunque NVIDIA afirma que el problema se reduce a un pequeño porcentaje de portátiles, según esta publicación "todos los chips G84 y G86 están mal. Punto. Sin excepciones. Todos ellos, tanto las versiones para portátiles como para sobremesa, usan exactamente el mismo ASIC."   En Ars Technica se han puesto en contacto con NVIDIA para comentar esas acusaciones, que la empresa se empeña en negar. Como explican en el post original, NVIDIA sigue afirmando que el problema se limita a algunos portátiles, y que en ningún caso los sistemas de sobremesa con gráficas dedicadas de NVIDIA con estas GPU se pueden ver afectados. Además afirman que sólo un pequeño porcentaje de los portátiles con estos chips están afectados, y que el problema depende de una combinación de condiciones medioambientales, configuraciones y modos de uso de estas máquinas.    Es evidente que NVIDIA no admitiría un problema tan grave como el que indican en The Inquirer, pero lo cierto es que habrá que esperar acontecimientos. Si NVIDIA ha mentido respecto a la importancia del problema no sólo tendrá problemas con los usuarios. Mentir al SEC no es moco de pavo, y las sanciones podrían ser ejemplares.    
0 comentarios0 shares
19/07/2008Javier Pastor

NVIDIA: alerta crítica G84 y G86

Las GPUs G84 y G86 de NVIDIA, tanto en su versión para portátiles como para gráficas dedicadas en PCs de sobremesa, tienen un problema crítico de sobrecalentamiento. Esto le puede salir muy caro a la empresa, que debe actuar rápido. Uno de los materiales utilizado en el sustrato del PCB provoca potenciales problemas de sobrecalentamiento que pueden acabar en una catástrofe para los usuarios, afirman en The Inquirer UK.   Lo comentábamos recientemente en Muy Computer: nVIDIA dio una conferencia para presentar sus resultados fiscales y aprovechó la ocasión para comentar, casi de pasada, que disponían de una previsión de fondos de nada menos que 200 millones de dólares para solucionar un problema de sobrecalentamiento de algunas de sus GPUs.       No dieron muchos más detalles acerca del problema, pero en The Inquirer UK ya tienen más detalles: se trata de las GPUs G84 y G86 que están presentes en multitud de tarjetas gráficas dedicadas y de chips gráficos para portátiles, y que pueden suponer un riesgo potencial de sobrecalentamiento para los usuarios que las utilizan.   Algunos analistas, apuntan en The Inquirer, afirmarán que se trata de un problema restringido a un lote que se incluyó en máquinas de HP, pero por lo visto el problema afecta "a todas las GPUs G84 y G86. Punto. Sin excepciones". Así pues, aunque parece que nVIDIA tratará de restringir el alcance de este gravísimo problema, lo cierto es que la crisis se avecina.  El proceso de fabricación de estos componentes ha hecho uso de un material en el sustrato que hace peligrar estas GPUs debido al sobrecalentamiento que pueden sufrir, y el problema puede existir tanto en ordenadores portátiles como en PCs de sobremesa por lo que dicen en The Inquirer UK, donde critican a NVIDIA por su secretismo y sus mentiras acerca de un problema que es mucho más grande de lo que nos están haciendo creer.   "No subestiméis lo malo que esto va a ser para NVIDIA, dudamos mucho que 200 millones de dólares sean capaces de cubrirlo". Con eso lo dicen todo.  
0 comentarios0 shares
11/07/2008Javier Pastor

Larrabee, basado en el Pentium

Las futuras tarjetas gráficas dedicadas de Intel que competirán con productos de AMD y NVIDIA podrían estar basadas en la vieja arquitectura de los Pentiums de 32 bits. En concreto, en la Intel P54C que se usó en los Pentium 75. Dichos procesadores aparecieron a principios de los 90, pero ahora podrían volver a resucitar para formar parte de Larrabee como los núcleos de esa arquitectura multicore que pretende aplicar Intel.   La idea no viene de un rumor cualquiera: el portal tecnológico alemán Heise ha podido hablar con Pat Gelsinger, uno de los máximos responsables de Intel, y le ha preguntado por este futuro desarrollo de Intel. Gelsinger ha confesado que los múltiples núcleos con Intel Architecture de Larrabee estarán basados en la vieja arquitectura Intel P54C, que se vio por última vez en los Pentium originales a principios de los años 90.    Como indican en Custom PC, los nuevos núcleos serán más sofisticados y mucho más pequeños, ya que estarán fabricados con escala de integración de 45 nanómetros. Además en Heise afirman que cada núcleo dispondrá de una unidad de proceso vectorial SIMD de 512 bits, y según esa publicación si Intel integrara 32 núcleos de este tipo a 2 GHz se lograría una potencia total de nada menos que 2 TFLOPs, una cifra sin parangón en la informática actual.    También hay ya algunos diagramas preliminares de Larrabee como el que presenta Expreview, que ofrece un diseño de lo que será el PCB, con un conector de corriente de 150 vatios y otro de 75 vatios, lo que según Heise podría hacer que estas futuras tarjetas gráficas dedicadas consumieran como mucho 300 vatios. Parece que serán unas verdaderas tragonas de energía, aunque también es cierto que la potencia que podrían ofrecer estas soluciones es sencillamente brutal, doblando las actuales ofertas de NVIDIA y AMD.  
0 comentarios0 shares
08/07/2008Javier Pastor

ATI prepara su Super RV770

La presentación de las nuevas Radeon HD 4850/4870 ha sido todo un éxito para AMD/ATI, pero parece que la empresa aún guarda un as en la manga, y esta GPU tiene margen para crecer y presentar una versión aún más potente de la RV770. Dicho lanzamiento se caracterizaría por un procesador gráfico a más velocidad, con una memoria gráfica también más rápida y que podría estar refrigerada líquida de serie, una opción curiosa.   En TGDaily lo explican claramente: la ATI Radeon HD 4870 dispone de dos conectores de seis pines que soportan un TDP máximo de 225 vatios, pero la tarjeta gráfica consume como máximo 170 vatios, lo que significa que hay 55 vatios de margen para crecer en consumo... y prestaciones.    Ese dato ha permitido deducir la presencia de una versión "supervitaminada y mineralizada" de las nuevas GPUs de AMD GPG (la división que antes era conocida simplemente como la empresa ATI), las RV770, y que tendría como nombre clave "Super RV770".   Las prestaciones de esta versión potenciada de la RV770 serían mucho mayores que las de las actuales tarjetas, y de hecho las tarjetas con dicha GPU dispondrían de refrigeración líquida de serie, lo que permitiría alcanzar frecuencias de reloj para la GPU de hasta 950 MHz. No sólo eso, la memoria también aumentaría sus prestaciones y llegaría a los 4,8 Gigatextels por segundo. Eso ofrece un ancho de banda de 150 Gbytes por segundo y permitiría a ATI superar incluso a las poderosas NVIDIA GeForce GTX 280, que según los cálculos de TGDaily pueden alcanzar como máximo 138,37 Gbytes por segundo.    De hecho, parece que la primera tarjeta con este tipo de solución pronto aparecerá en el mercado: Diamond Multimedia está preparando la llamada ATI Radeon HD 4870 XOC Black Edition, que tendrá una GPU a 800 MHz y memoria a 4,4 GT/s (1,1 GHz), pero que también podrá overclockear para llegar a 950 MHz para la GPU y 1200 MHz para la memoria.    
0 comentarios0 shares
02/07/2008Javier Pastor
ATI HD 4800: la revolución

ATI HD 4800: la revolución

ATI presenta su nueva generación de tarjetas gráficas de la serie HD 4800 con la nueva GPU RV770 con el objetivo de ofrece la máxima potencia en todos los rangos de precio. Una potencia de un Teraflop es su impresionante carta de presentación. Se trata de las primeras tarjetas basadas en la memoria para tarjetas gráficas GDDR5 y compatibles con las librerías gráficas DirectX 10.1 de Microsoft.   Las mejores prestaciones en cada rango de precio. Ese es el objetivo que pretende alcanza ATI con su nueva familia de tarjetas Radeon HD 4800, y la verdad es que credenciales para ello no le faltan. En una presentación internacional a la prensa a la que asistió MuyComputer, los representantes de ATI mostraron lo último en salir de sus laboratorios, un conjunto de avances tecnológicos, pero también interesantes cambios de enfoque estratégicos en los que las tarjetas gráficas asumen un papel protagonista y no sólo en la pura potencia gráfica. Estos avances se encarnan en dos nuevas tarjetas gráficas, la HD 4850 y la más potente HD 4870, ambas compatibles con la tecnología Crossfire. La 4850 dispone de un procesador a 650 MHz y memoria GDDR3 a 2 GHz y la 4870 ocupa dos ranuras de expansión y equipa un procesador a 750 MHz y memoria GDDR5 a 3,6 GHz.    Es indudable que ATI con este lanzamiento no está haciendo un planteamiento continuista ni busca asentarse como secundario, sino que presenta unas ambiciosas credenciales, desde el punto de vista tecnológico pero también de los objetivos, para dominar el mercado de las tarjetas gráficas. Hasta ahí las intenciones de la empresa, veamos cuáles son estas credenciales.   RV770, una GPU revolucionaria   La piedra angular de los nuevos lanzamientos de ATI es su nuevo procesador gráfico o GPU: el RV770. Este nuevo procesador tiene un tamaño de 260 milímetros cuadrados y se fabrica con tecnología de 55 nanómetros. El resultado son 956 millones de transistores que suponen un aumento de un 40% con respecto al procesador de la serie HD 3800. Lo más sobresaliente de este procesador es su potencia de cálculo, un Teraflop, es decir, un billón de operaciones de coma flotante por segundo. Tal y como se mencionó en la propia presentación, esa potencia de cálculo era alcanzada por primera vez en 1996 por un ordenador que ocupaba una habitación y que estaba compuesto por aproximadamente 10.000 procesadores Pentium Pro.    ¿En qué utiliza la HD 4800 toda esta potencia de proceso? Los ingenieros de ATI han incorporado posibilidades tan novedosas como la de que el procesador pueda ocuparse de calcular el comportamiento de la inteligencia artificial de los adversarios en los juegos. También cumple un papel fundamental en la aceleración de procesos multimedia como la compresión y tratamiento de vídeo en alta resolución.   Calor y consumo   Uno de los caballos de batalla de los diseñadores a la hora de desarrollar las nuevas tarjetas de la serie HD 4800 ha sido el consumo y la disipación de calor. En ATI han conseguido que el consumo del chip gráfico sea de 160 Vatios, con respecto a los más de 200 que suelen consumir tarjetas gráficas de similares características. Además, esta nueva generación dispone de la tecnología PowerPlay que permite ahorrar energía cuando el sistema no precisa de la aceleración gráfica.  Prestaciones escalables   En lo que respecta a las prestaciones, en lo que respecta a juegos las características de las tarjetas más destacadas son la presencia de 800 procesadores "stream", antialiasing 8X, 40 unidades de texturas y la compatibilidad con DirectX 10.1, incluyendo la "Texelación", una técnica que genera triángulos para texturas a una velocidad más alta. Como se ha mencionado, esta generación es compatible con la tecnología Crossfire, que permite instalar hasta cuatro tarjetas simultáneamente aumentando la potencia gráfica. Otro de los componentes que contribuyen a aumentar la potencia de la tarjeta es la memoria. La serie HD 4800 es la primera en utilizar GDDR5, con un ancho de banda para la memoria de 115,2 GigaBytes por segundo.   Multimedia y alta definición   Uno de los talentos más destacables de estas nuevas tarjetas, es la aceleración y optimización del tratamiento de vídeo en alta definición mediante el sistema UVD 2. Estas tarjetas son capaces de reproducir dos contenidos de vídeo de 1080p simultáneamente y realizar funciones de imagen en imagen (PiP) con dos entradas de alta definición. La reproducción de contenidos de alta definición, como discos Blu Ray, ven muy reducida la necesidad de utilizar la CPU, gracias a la ayuda de la potencia del procesador gráfico. En las pruebas mostradas, ese uso de CPU se reducía hasta un 13%, cuando en condiciones normales el procesador recibe una carga de trabajo superior al 50%. Muy notable también la aceleración que se consigue al codificar vídeo en alta definición. Gracias al uso del potente procesador de la HD 4800 se consigue codificar una hora de vídeo en definición 1080p en tan solo 32 minutos. En condiciones normales, un ordenador puede tardar casi diez horas en realizar el mismo trabajo.   El precio, la clave   Pero aún reconociendo que las prestaciones y la tecnología que muestran esta nueva generación de tarjetas es sorprendente, es el precio de las mismas lo que sin lugar a dudas otorgará a ATI un lugar de privilegio en el mercado. El modelo HD 4850 tiene un precio recomendado de 199 dólares, mientras que el del modelo superior, la HD 4870 es de 299 dólares. Precios extremadamente competitivos, sobre todo comparándolas con tarjetas de una potencia análoga e incluso inferior.       
0 comentarios0 shares
25/06/2008Gustavo de Porcellinis

Asus EAH4850/HTDI con 1 giga

La tarjeta Asus EAH4850/HTDI está basada en la serie ATI Radeon HD 4850 con 1 Gbyte de memoria y ha sido creada para aprovechar DirectX 10 en los juegos y reproducir vídeo a altas resoluciones. Todas las tarjetas de esta serie vienen equipadas con el disipador Glaciator, que mantiene la temperatura hasta 7 grados menos que en otros modelos.   La serie Asus EAH4800 dispone del nuevo motor gráfico TeraScale para reproducir contenido de alta definición y Blu-ray sin ningún problema. Además, gracias a su memoria (512 Mbytes o 1 Gbyte, dependiendo del modelo) ofrece un alto rendimiento en todo tipo de juegos. Como hemos comentado, el disipador Glaciator es capaz de bajar la temperatura hasta 7 grados centígrados en comparación con otros modelos de referencia y trabaja con un nivel de ruido (25 decibelios) prácticamente imperceptible en una habitación en silencio. Hay que destacar también que esta serie incluye el videojuego Alone in the Dark, que disfrutaremos al máximo con los dos modelos de tarjetas gráficas propuestos por Asus.   Características técnicas: Motor gráfico: Radeon HD 4850. Bus estándar: PCI Express 2.0. Reloj de motor: 625 MHz. Memoria de vídeo: 1 Gbyte o 512 Mbytes (según modelo). Resolución DVI máxima: 2.560 x 1.600. Salida D-Sub: Sí, 1 (por adaptador DVI a D-Sub). Salida HDTV: Sí, por cable HDTV Out. Soporte HDCP: Sí. Salida HDMI: Sí, por adaptador DVI a HDMI.    
0 comentarios0 shares
25/06/2008Javier Pérez Cortijo
AMD y Havok, respuesta a NVIDIA

AMD y Havok, respuesta a NVIDIA

La adquisición de Ageia por parte de NVIDIA y la conversión de su motor de física PhysX a su tecnología CUDA podría poner en aprietos a AMD y ATI, pero ambas han reaccionado aliándose con Havok, o lo que es lo mismo, con Intel. Este peculiar pacto entre rivales tradicionales le permitirá a AMD competir en ese futuro campo de batalla que supondrán las tarjetas gráficas con motores de física que permitirán dar mayor realismo.   No hace mucho se hablaba de los motores de física en los videojuegos como la próxima gran revolución de este segmento para el PC. La empresa Ageia empezó a hablar de su motor de física, una aceleradora específica llamada PhysX que estaba diseñada para acompañar a tarjetas gráficas dedicadas y "echarles una mano" en la ejecución de juegos con una alta carga de componentes físicos.    Sin embargo, la evolución de Ageia ha sido singular: el pasado mes de febrero nos enteramos de que NVIDIA compraba Ageia y que por tanto se hacía con su tecnología de motor de física para videojuegos. No tardaron mucho en ponerse manos a la obra, y están terminando de adaptar la tecnología de las tarjetas PhysX para que se pueda ejecutar a través de CUDA, la plataforma de NVIDIA que permite hacer que tareas de propósito general puedan ejecutarse desde la GPU.    Ante dicha situación AMD y ATI parecían algo indefensas: ambas habían apostado inicialmente por Havok, otra tecnología de motor de física para videojuegos, pero Intel compró la empresa y dicha tecnología en septiembre de 2007, lo que hizo algo peculiar la situación.   Hasta hoy.    AMD acaba de anunciar de forma oficiosa su acuerdo con Havok y por extensión, con Intel, algo casi irónico teniendo en cuenta que AMD e Intel son rivales encarnizadas en el mercado de los procesadores. Como indican en Tom's Hardware, Godfrey Cheng, directivo de AMD, ha comentado que ambas empresas están colaborando para optimizar el procesamiento de la física en los procesadores de AMD y las GPUs de ATI. Según las declaraciones de AMD, Havok "escala extremadamente bien en toda la familia de procesadores de AMD, incluyendo productos quad-core como los AMD Phenom X4".   ¿Estamos pues ante una batalla de motores de física por software? Eso parece.
0 comentarios1 shares
12/06/2008Javier Pastor

Memoria de AMD para ATI Radeon

AMD ha anunciado hoy la primera implantación de la memoria Graphics Double Data Rate versión 5 (GDDR5) en su próxima generación de productos de tarjetas gráficas de ATI Radeon. Se prevé que la tecnología GDDR5 de alta velocidad y banda ancha se convierta en el nuevo estándar de memoria del sector. AMD está colaborando con varios proveedores de memorias como Samsung, Hynix y Qimonda para sacar la GDDR5 al mercado. 



El rendimiento actual de la GPU (Graphic Process Unit) está limitado por la tasa a la que pueden transmitirse los datos en el chip gráfico que, a su vez, está limitado por el ancho de la interfaz de memoria y el tamaño de la oblea. Las mayores tasas de datos que permite la GDDR5 (hasta 5 veces más que la GDDR3 y 4 veces más que la GDDR4) permite un mayor ancho de banda en una interfaz de memoria más estrecha, lo que puede traducirse en un rendimiento superior logrado por chips más pequeños y con mejor relación precio/prestaciones.Los ingenieros de AMD han trabajado en estrecha colaboración con el organismo de estándares industriales JEDEC en el desarrollo de la nueva tecnología de memoria y en la definición de las especificaciones de la GDDR5. Según Rick Bergman, vicepresidente primero y director general del Grupo de Productos Gráficos de AMD,  “consideramos que la GDDR5 es la mejor manera de impulsar un mayor rendimiento siendo consciente del consumo de energía. Estamos entusiasmados por el potencial que supone la GDDR5 para el desarrollo innovador de juegos y una experiencia de juegos aún más emocionante. Muy recientemente hemos sido los primeros en lanzar al mercado una arquitectura unificada de shaders, los primeros en estar equipados con juegos Microsoft DirectX 10.1, los primeros en bajar los nodos de proceso como el 55nm, los primeros con HDMI integrado con audio y los primeros en contar con apoyo de cálculo de punto flotante de doble precisión".
AMD prevé que los gráficos de ordenador se beneficiarán del incremento de la banda ancha de la memoria para diversas aplicaciones intensivas. Los gamers podrán disfrutar de configuraciones de alta resolución y calidad de imagen, así como de un rendimiento de juego general superior. Las aplicaciones del ordenador podrán beneficiarse de tiempos de carga rápidos, con mejores tiempos de respuesta y mejor multitarea.

Además del potencial para un mejor rendimiento de juegos y aplicaciones para ordenador, la GDDR5 también presenta diversos beneficios para el procesamiento stream, donde se aplican las GPU para realizar grandes cálculos paralelos complejos. Dichos cálculos son frecuentes en la informática de alto rendimiento, segmentos financieros y académicos, entre otros. 



El nuevo mecanismo de detección de errores en GDDR5 también puede ayudar a aumentar la precisión de cálculos identificando errores y volviendo a emitir comandos para conseguir datos válidos.
0 comentarios0 shares
22/05/2008Javier Pérez Cortijo