marenas, Autor en MuyComputer
[ marenas ]
Todo sobre NVIDIA GTC 2010

Todo sobre NVIDIA GTC 2010

Un equipo de MuyComputer ha estado presente en la NVIDIA GTC 2010 (también tuvimos la oportunidad de asistir el año pasado, con la presentación de Fermi), un evento que ya es una referencia mundial desde el punto de vista tecnológico y científico. En este especial resumimos lo mejor de NVIDIA GTC 2010, repasando las presentaciones clave y los avances que se han anunciado durante la serie de conferencias  celebradas en San José (California, EE.UU.). Así ha sido NVIDIA GTC 2010.El evento GTC ( GPU Technology Conference) cobra forma y en esta edición de 2010 es ya una referencia imprescindible y consolidada para la comunidad investigadora y científica internacional. La palabra clave es CUDA, un API desarrollado por NVIDIA para aprovechar el paralelismo implícito en la tecnología de las tarjetas gráficas como acelerador para aplicaciones diseñadas para aprovecharlo.  Básicamente se trata de escenarios donde hay cantidades ingentes de datos sobre los que hay que realizar operaciones relativamente simples. El potencial es extraordinario a la vista de las demostraciones que ilustraron la keynote inaugural a cargo de Jen-Hsung Huang,CEO de NVIDIA. Desde cirugía robotizada, donde se acelera el procesamiento de imágenes, vital para ofrecer al cirujano una representación real y tridimensional de los órganos implicados en una intervención, hasta tecnologías para procesamiento de imágenes por parte de Adobe, que permiten enfocar y reenfocar las fotos capturadascon lentes especiales que captan la misma escena con diferentes ángulos deincidencia de la luz, o componer fotos 3D a partir de esa información almacenada en el sensor de la cámara.  GPUs y la comunidad científica La comunidad científica es una de las más exigentes en cuanto a necesidades de cálculo y esa exigencia se traslada de forma inmediata a los ordenadores con los que trabaja y las aplicaciones que utilizan para resolver los problemas que surgen durante sus investigaciones o sus simulaciones. Hasta ahora, sólo los superordenadores eran capaces de afrontar la resolución de estos problemas, aunque la forma de trabajar con ellos es un tanto complicada debido a la escasez de centros de supercomputación y al coste de los mismos. Por otro lado, los ordenadores convencionales no son capaces de ofrecer el rendimiento demandado por los investigadores. Ni siquiera las estaciones de trabajo convencionales lo son.    El motivo radica en la naturaleza de los problemas científicos, donde se parte de cantidades ingentes de datos que pueden, y preferiblemente deben procesarse en paralelo, mientras que los procesadores convencionales trabajan de un modo esencialmente secuencial. Eso sí, son capaces de realizar cálculos muy elaborados en cada hilo de ejecución, pero sólo pueden manejar unos pocos hilos en paralelo. Y lo que demandan los científicos es precisamente manejar muchos hilos de ejecución a la vez, aunque no se realicen cálculos tan complejos sobre ellos. Es algo así como enfrentarse a la tarea de llevar a 1.000 personas de un sitio a otro. No es tan importante poder llevar a cuatro personas de cada vez a 200 Km/h que poder transportar a los 1.000 en un solo viaje, aunque sea a 50 Km/h. Aunque desde luego que si es posible transportar a todos a la vez y a 200 por hora, mucho mejor.   Cuando NVIDIA empezó a hablar de CUDA y paralelismo en 2006, los científicos e investigadores rápidamente se mostraron interesados en una tecnología que por una fracción del coste de un superordenador podía ofrecer rendimientos de cálculo incluso superiores. De todos modos, en una primera etapa, la arquitectura de los chips GeForce de NVIDIA no estaba totalmente optimizada para aplicaciones GPU, y la arquitectura Fermi estaba llamada a ser la sucesora. Pero los retrasos de varios meses en la obtención de chips por problemas de fabricación y diseño fueron un obstáculo que puso en entredicho la credibilidad de NVIDIA, mientras AMD comercializaba sus tarjetas DX11 a todos los niveles en el mercado de consumo. De todos modos, la arquitectura Fermi de NVIDIA llegó en forma del esperado chip con sus 3000 millones de transistores y una optimización notable para aplicaciones GPGPU, y esto se ha reflejado en un importante incremento de soluciones de hardware especificas dentro de las familias profesionales Quadro y Tesla. Al mismo tiempo, los usuarios residenciales se benefician de la adopción por parte de los desarrolladores de software, de aceleradores específicos para aplicaciones que van desde editores de video hasta navegadores de Internet, pasando por los juegos o ahora también programas como Matlab o 3DStudio mediante toolkits o plugins. Las cuatro “patas” del negocio de NVIDIA. Tegra es la gran esperanza para movilidad.  En este evento GTC2010 fue posible comprobar cómo, con una simple tarjeta GTX 280 o las nuevas Fermi 460 o 480, con precios por debajo de los 500 euros, un departamento en una Universidad puede empezar a trabajar en proyectos de investigación que antes solo se podrían abordar mediante el uso de superordenadores, con todas las dificultades que ello conlleva en términos de logística  y presupuestos. A partir de ahí, lo que se necesita para llevar el proyecto a otros niveles de rendimiento es escalar el hardware con equipos Quadro o Tesla, con costes que aún están muy por debajo de los de un superordenador. Pero lo importante es que se puede empezar con pocos recursos, aunque usando las mismas herramientas de programación y desarrollo que se usarían con recursos mucho mayores. CUDA democratiza el calculo científico HPC de esta manera, y abre las puertas a proyectos en universidades y empresas que antes, sencillamente no podrían permitírselo. Y lo curioso es que CUDA, aún no siendo un estándar, y estando “controlado” por una empresa privada como es NVIDIA, se estudia ya en más de 350 Universidades a nivel mundial y se ha convertido en el estándar de facto para las aplicaciones GPGPU. AMD, de momento, no ha movido mucho sus productos en esta área más allá de proyectos concretos y el apoyo a OpenCL. De todos modos, a partir del momento en el que CUDA se estudia en las universidades, se tiene un “semillero” de aceptación extraordinario. Los estudiantes que aborden proyectos laborales y de investigación en el futuro, buscarán hacerlo con lo que conocen mejor y se decantarán por NVIDIA y CUDA. Habrá que ver si en la práctica NVIDIA consigue sacar provecho de esta ventaja. Por lo pronto, fabricantes como Acer/Gateway están alineados alrededor de NVIDIA, y por ende de CUDA. Eso sí, la tarea que la compañía está realizando y realizará durante los próximos años evangelizando y facilitando material a los investigadores, empresas y universidades es inconmensurable. Bueno, en realidad sí es cuantificable: 8 billones de dólares en I+D durante los próximos cinco años. Un dinero que viene del área de las tarjetas gráficas por un lado, y es de esperar que a no mucho tardar, de la parte de Tegra para el segmento de la movilidad por otro. El alineamiento de NVIDIA con ARM es total en este segmento, donde tendrá que competir con Intel y sus soluciones de movilidad, que aún no han demostrado ser la panacea para este complicado y exigente segmento.  NVIDIA GTC 2010 (II) >    
0 comentarios0 shares
01/10/2010marenas
NVIDIA GTC 2010 (II)

NVIDIA GTC 2010 (II)

Un equipo de MuyComputer ha estado presente en la NVIDIA GTC 2010 (también tuvimos la oportunidad de asistir el año pasado, con la presentación de Fermi), un evento que ya es una referencia mundial desde el punto de vista tecnológico y científico. En este especial resumimos lo mejor de NVIDIA GTC 2010, repasando las presentaciones clave y los avances que se han anunciado durante la serie de conferencias celebradas en San José (California, EE.UU.). Así ha sido NVIDIA GTC 2010.Proyectos interesantes basados en GPGPUEl número y diversidad de proyectos donde se está usando GPGPU y en concreto CUDA sobre hardware de NVIDIA es positivamente sorprendente. De todos modos las compañías grandes como Adobe han sido las que han hecho anuncios mas espectaculares donde aplicaciones tan conocidas como Creative Suite de Adobe, 3DS Max de Autdesk o Matlab de Mathworks se benefician de la potencia de cálculo de las GPUs en general y las de NVIDIA en particular. Esta aceptación de las grandes empresas de software, es otro motor para NVIDIA, que ve cómo los fabricantes de hardware cobran interés en desarrollar productos alrededor de Fermi.Con iray de Mental Images los profesionales del diseño y el CAD disponen de una herramienta que aprovecha al máximo el potencial de CUDA para convertir tareas de muchas horas de cálculo en operaciones de pocos minutos.De todos modos, además de trabajar con las grandes empresas del software, NVIDIA cuida mucho a las compañías emergentes y al mundo académico con programas como Emerging Companies Summit. Un ecosistema en el que las compañías con menos oportunidades pueden abrirse paso con sus proyectos en el mundo GPGPU. Desde aplicaciones de simulación para el mundo de la moda, hasta aplicaciones médicas, pasando por procesamiento de vídeo o sistemas de visualización. Durante esta edición de GTC, fueron constantes las presentaciones por parte de empresas que tienen como base de su negocio la tecnología GPGPU de NVIDIA de forma directa o indirecta.Por parte de España, GTC contó con la presencia de asistentes por parte de centros educativos como la Universidad Rey Juan Carlos, la Universidad Politécnica de Valencia o el Centro de Supercomputación de la Universidad Politécnica de Cataluña, con departamentos implicados en la investigación del paralelismo aplicado en proyectos de distinta índole. Por su parte, por parte de la Universidad de Santa Clara participó María Pantoja, española afincada en Estados Unidos desde hace años impartiendo clases de Arquitectura de Ordenadores.Por su parte, el equipo formado por Jose Antonio Belloch del Instituto de Telecomunicaciones y Aplicaciones Multimedia en la Universidad Politécnica de Valencia, Alberto Gonzalez, Universidad Politécnica de Valencia y Antonio M. Vidal, también de la Universidad Politécnica de Valencia, impartieron una de las sesiones técnicas sobre Real-time Multichannel Audio Convolution.Pon un superordenador en tu vidaDe momento, el mercado para HPC es pequeño comparado con el total del mercado del software, pero si NVIDIA consigue hacer realidad sus promesas, puede revolucionarlo de manera sustancial. En la lista Top 500 de superordenadores se clasifican los 500 ordenadores más potentes del mundo. Esta lista se revisa dos veces al año, y estar en ella es una consecuencia, pero para NVIDIA también un fin en sí mismo. Consecuencia , porque en muchos casos lo que prima es ante todo tener un ordenador que resuelva las necesidades de cálculo que han motivado su construcción. Un fin porque las empresas usan este ranking como escaparate al mundo para mostrar hasta dónde se puede llegar con una tecnología dada.NVIDIA , sin ir más lejos, tiene ya un superordenador en el puesto número dos (Nebulae, en China), y en la próxima revisión de la lista Top 500 parece que NVIDIA estará en el número uno.Entre las ventajas de la arquitectura paralelizada de los chips de NVIDIA está su mayor eficiencia energética comparada con los superordenadores clásicos con procesadores Intel, AMD o IBM. Sin olvidar que el rendimiento obtenido puede ser varios órdenes de magnitud más elevado. De hecho, el apartado del rendimiento fue otro de los más comentados durante la conferencia, con incrementos de decenas o cientos de órdenes de magnitud usando las herramientas de programación CUDA, así como optimizando el código y los programas hasta que se consigue la máxima velocidad en la ejecución de una tarea. No es fácil alcanzar el máximo rendimiento, y los programadores se enfrentan a una tarea nada evidente, pero la recompensa del esfuerzo hace que sea interesante dedicar el tiempo que sea necesario a trabajar sobre el código y “pegarse” con CUDA.La magia de las soluciones de NVIDIA está en que virtualmente todas las tarjetas gráficas en el mercado con chips GeForce, son compatibles con CUDA y cualquier profesional, educador, estudiante, laboratorio o empresa puede empezar a trabajar sobre sus aplicaciones. El rendimiento dependerá del tipo de tarjeta o solución empleada, pero en esencia, el trabajo será el mismo programando frente a una GeForce GTX 460 que frente a una estación TESLA.De todos modos, al amparo de CUDA y las soluciones HPC de NVIDIA, están apareciendo negocios como el “alquiler” de potencia de cálculo en centros creados para ofrecer un rendimiento HPC muy elevado sobre GPUs a aquellos centros o empresas que lo necesiten y no quieran invertir en un centro de cálculo. Peer1 Hosting es un ejemplo, y conversando con ellos durante el GTC, comentaban que se trata de un negocio en crecimiento y con una aceptación extraordinaria por parte de os clientes. El ejemplo expuesto en la keynote inaugural del evento, donde se mostraba en acción a la solución de rendering foto realístico iray (http://www.mentalimages.com/products/iray) sobre 3ds Max es el paradigma de este modelo de negocio, donde los creativos pueden ver el resultado de sus trabajos, renderizados remotamente, y de un modo inmediato, en la pantalla de un navegador usando la potencia de procesamiento de uno de estos centros de cálculo, e incluso de un modo interactivo.El futuro de NVIDIADe las cuatro patas donde se sustenta el negocio de NVIDIA actualmente (gráficos GeForce, HPC con Quadro, HPC con Tesla y Tegra para movilidad), la que realmente sigue dando dinero es la de gráficos, con Tegra a las puertas de eclosionar definitivamente en forma de Tablets y móviles, que Jen-Hsun Huang ha definido como su ordenador personal, haciendo referencia concreta a su Blackberry. En cualquier caso, HPC es un área de negocio sumamente golosa y estratégica que de estar bien llevada, a medio plazo puede ser una fuente de ingresos extraordinaria para NVIDIA, así como el motor que empuje la investigación y el desarrollo de nuevos chips, de igual modo que en su día fueron los juegos los que impulsaban el talento de los ingenieros en la compañía.Está claro que NVIDIA está en una encrucijada importante. Sus apuestas a corto y medio plazo son arriesgadas: Tegra para movilidad y GPGPU como alternativa y extensión de las CPU tradicionales, con un énfasis especial en el desarrollo de una arquitectura por encima de la que pueda ofrecer Intel o AMD, con un rendimiento que supere en bastantes órdenes de magnitud el de los procesadores con arquitecturas x86. Si no consigue el éxito esperado, NVIDIA se quedaría con el negocio de los gráficos para escritorio, donde la tendencia es la de obtener menores márgenes de beneficios y reducción de precios.
0 comentarios0 shares
01/10/2010marenas
Zotac H55-ITX WiFi

Zotac H55-ITX WiFi

La nueva Zotac H55-ITX WiFi es una placa de formato Mini-ITX destinada a equipos compactos y basada uno de los chipsets de Intel más populares hoy día: el H55. La miniaturización es clave para entender el progreso tecnológico en informática. La concentración de componentes en un menor número de circuitos integrados es una tendencia siempre deseable, sobre todo si no supone sacrificar rendimiento ni posibilidades. Probamos una propuesta diferente de un fabricante cada vez más consolidado.La placa es todo un ejemplo de miniaturización tecnológica.La miniaturización es clave para entender el progreso tecnológico en informática. La concentración de componentes en un menor número de circuitos integrados es una tendencia siempre deseable, sobre todo si no supone sacrificar rendimiento ni posibilidades. Zotac ofrece una plataforma ideal para aprovechar los nuevos procesadores de Intel y montar un sistema multipropósito para trabajar con ofimática, navegar por Internet, o reproducir contenidos multimedia.La gama de procesadores Core i3/i5 de Intel con gráficos integrados (Clarkdale), con tecnología de 32 nm. y la arquitectura Westmere, fruto del refinamiento de Nehalem, consigue simplificar el concepto de chipset al integrar la parte gráfica en el propio procesador en vez de en el chipset.Un chipset que, recordemos, en la familia H55/H57 queda reducida a un único chip, encargado esencialmente de la gestión de las operaciones de entrada/salida y control de periféricos. Internamente, el procesador consta de dos chips: el gráfico con tecnología de 45 nm. y que integra el controlador de memoria, y el que contiene los dos “cores” Westmere de 32nm, que en la práctica se convierten en 4 hilos de ejecución al usar la tecnología HyperThreading.Esta simplificación sirve a los fabricantes de placas base como excusa para diseñar modelos más compactos y económicos. Las conexiones de vídeo VGA, HDMI o DVI están integradas independientemente de que se use un procesador Core i3/i5 con gráficos integrados o un procesador Core i7 Lynnfield que necesitará de una tarjeta de vídeo dedicada, pero se trata sólo de meros conectores, pues la lógica de control está integrada en el procesador.Zotac ha conseguido llevar esta filosofía de miniaturización a su máxima expresión, combinando tecnologías de PC y de portátil para ofrecer una placa con potencia de sobremesa en un formato casi de portátil.La compatibilidad con los procesadores Core i3/i5/i7 LGA1156 hace posible que el rendimiento obtenido sea perfecto para construir un equipo HTPC (Home Theatre PC) con un rendimiento multimedia de alta definición gracias a las tecnologías integradas en el procesador que incluyen la compatibilidad con audio DTS HD Master Audio o Dolby True HD, así como la aceleración de contenidos de vídeo de alta definición como Blu-Ray.La alimentación corre a cargo de una conexión ATA convencional, aunque sería más conveniente que se ofreciese una versión alimentada mediante un transformador externo. El problema es la presencia de una ranura PCI-e x16 para instalar una tarjeta de vídeo que consumirán más energía de la que pueda ofrecer un transformador externo. Si hubiese una edición de esta placa que dependiese sólo de los gráficos en el procesador se podría aumentar el nivel de integración.De todos modos, este producto es excepcional en cuanto a tamaño, potencia y versatilidad para construir equipos muy compactos, pero con un rendimiento tan elevado como el de un PC de sobemesa convencional.La posibilidad de instalar una potente gráfica dedicada trae consigo no sólo conlleva una mayor demanda energética, sino necesidades de espacio y sistemas de refrigeración dedicados.A pesar de su pequeño tamaño ofrece unas opciones de conectividad más que aceptables.Las pruebas se han realizado con un procesador Core i5 661, acompañado por 4 Gbytes de RAM DDR3 (en dos módulos), uno de los más potentes de la gama Clarkdale con gráficos integrados, pero no hace falta usar un procesador excesivamente veloz. Un Core i3 sin ir más lejos, o un Core i5 de gama más baja, permiten construir un sistema mini equilibrado y con un buen rendimiento multimedia sin invertir una cantidad de dinero excesiva.La caja para esta placa se puede encontrar en los catálogos de fabricantes como Silverstone o Antec, por ejemplo, con modelos específicos para configuraciones multimedia. Sería interesante que la conexión de alimentación fuese externa en vez de depender de una fuente interna, aunque no debería ser problema para encontrar una caja a la medida y que no ocupe demasiado tamaño.Con la configuración mencionada obtuvimos 7.630 puntos con PCMark Vantage y 461 en 3D Mark Vantage (perfil Performance), unos números que demuestran la versatilidad del equipo para un gran número de tareas. No detectamos problema (ni de rendimento ni de temperatura) alguno moviendo vídeo en alta definición o ejecutando las aplicaciones más habituales.ConclusionesConsideramos a la Zotac H55-ITX WiFi como una de las mejores opciones para abordar la construcción de un sistema multimedia para el salón. Si se elige la caja adecuada, puede ser un sistema de ocio fantástico que integre PC y TV.Como deseo, para modelos futuros, sería estupendo que la conexión HDMI permita interactuar con el sistema operativo o aplicaciones mediante el mando a distancia de la televisión usando protocolos como AnyNet, Viera Link o similares. Cada fabricante da un nombre disitinto a esta “habilidad” pero en el fondo es una característica inherente a HDMI.
1 comentario0 shares
26/04/2010marenas
Intel Core i7 980X

Intel Core i7 980X

El último procesador de Intel ha pasado por nuestro banco de pruebas ofreciendo resultados impresionantes. Probamos el Intel Core i7 980X, basado en arquitectura Gulftown y tope del gama de la firma norteamericana. Paso a paso Intel va completando etapas en una carrera contra sí misma que ha conseguido distanciarla de AMD, sobre todo en lo que a componentes de rendimiento extremo se refiere. En el artículo sometemos al Intel Core i7 980X Extreme Edition a pruebas de laboratorio y comentamos qué podemos esperar de esta propuesta de Intel.        Paso a paso Intel va completando etapas en una carrera contra sí misma. AMD tiene buenos y equilibrados productos en el segmento de sobremesa, y también soluciones tecnológicas de primer orden para el mercado empresarial en lo que a procesadores se refiere, pero dentro de las categorías extremas de rendimiento no tiene productos que puedan hacer sombra de un modo determinante a Intel.   Gulftown es la prueba tangible de ello, como se verá a continuación, al menos hasta que AMD presente en sociedad su propuesta de seis núcleos para el segmento de consumo, con nombre clave Thuban. En Cebit ya mostró su prototipo funcionando sobre una placa base Gigabyte con zócalo AM3, aunque la realidad es que los usuarios "de a pie", a día de hoy sólo cuentan con este Intel Core i7 980x EE como propuesta para rendimiento extremo.    Intel sigue cubriendo etapas de su roadmap para procesadores y su estrategia tick-tock.   A pesar de la novedad de los seis núcleos en el segmento de consumo, en los equipso profesionales (servidores y estaciones de trabajo), los seis núcleos llevan ya tiempo ofreciendo un rendimiento multitarea excepcional. Tanto Intel con los procesadores Dunnington (Xeon 7400), como AMD con el Opteron de seis núcleos Istambul, proporcionan el máximo nivel de rendimiento en configuraciones de varias vías. La siguiente iteración tecnológica llega ahora de la mano de los procesadores Nehalem-EX, con hasta 8 núcleos por cada procesador, y los AMD Magny-Cours con seis núcleos y hasta 12 cores integrando dos chips de seis en una misma CPU.No en vano, la arquitectura del procesador Gulftown se parece más a la de un Xeon que a la de un procesador Lynnfield o Clarkdale para consumo, y de hecho, entre la audiencia potencial para estos Core i7 980X EE están profesionales liberales que busquen un equipo potente a un precio por debajo del que exhiben estaciones de trabajo profesionales certificadas.   Lo que se sacrifica en este caso es la posibilidad de tener configuraciones multiprocesador. Intel se adentró en el mundo de los sistemas multiprocesador para el segmento "doméstico - avanzado" con la plataforma Skulltrail, aunque parece que en esta generación no habrá tal posibilidad de combinar dos Core i7 980x en un único equipo. De todos modos, el rendimiento de este procesador promete romper todos los récords por sí solo sin necesidad de complicarse la vida.   La facilidad con la que se instala y se pone a funcionar es excepcional: pueden usar las placas LGA1366 actuales con chipset Intel X58 (sólo hay que actualizar la BIOS) y el ventilador diseñado por Intel para la ocasión tiene un sistema de fijación mediante tornillos muy fácil de instalar y ajustar.        La memoria está organizada de modo que se combinen módulos de tres en tres para conseguir aprovechar al máximo las posibilidades de una disposición de triple canal. Además, a pesar de la limitada velocidad de hasta 1.333 MHz "oficiales", se pueden configurar modos avanzados XMP (eXtreme Memory Profiles) hasta DDR3 2.000 MHz. Depende de la calidad de la memoria y su temporización, pero el potencial está ahí. De todos modos, la ganancia de rendimiento a partir de la memoria no es significativa (o al menos hasta ahora) y en la práctica no es fácil encontrar aplicaciones que saquen el máximo partido de unos módulos más rápidos que otros. Al menos por encima de DDR3 1.066MHz.   Nuestras pruebas   Aunque la teoría es interesante, seguro que lo más esperado son las pruebas de uso real. El equipo empleado en esta ocasión consta de los siguientes elementos:   Placa base ASUS Rampage II Extreme (BIOS actualizada), chipset X58, zócalo LGA1366. Memoria: 3 x 2 Gbytes Kingston HyperX DDR3 2.000 MHz + 3 x 1 Gbyte Kingston HyperX DDR3 2.000 MHz. Disco Intel SSD 160 GB, compatible con TRIM. AMD Radeon HD5970 con doble procesador. Ventilador Intel para procesador Core i7 980X EE Procesador Intel Core i7 980X EE   Tras realizar algunas pruebas con los valores de referencia, lo cierto es que lo que demanda una configuración como esta es tratar de ir más allá de los límites establecidos. Para ello se configuró un modo XMP para la memoria de hasta 1.800 MHz y se aumentó el valor del multiplicador hasta alcanzar 3,9 GHz (frente a los 3,33 GHz nominales).   De este modo aprovechamos casi al máximo el potencial de la memoria, poniendo en aprietos a la tecnología del procesador y el ventilador. Los resultados, ya sea con la velocidad nominal, o con la velocidad "mejorada", superan todos los récords hasta la fecha, incluyendo el fantástico sistema Skulltrail, que se ve relegado a una posición secundaria. Y lo más llamativo es que a pesar de rendir más, el consumo de potencia del equipo Gulftown está más de 100 W por debajo, incluyendo el consumo de la tarjeta gráfica HD5970 de dos procesadores gráficos.       Lo cierto es que las pruebas hablan por sí mismas, con mejoras de rendimiento generalizadas en todas las áreas. Es cierto que se ha usado un disco SSD de 160 GB junto con una tarjeta gráfica de última generación, pero en la práctica, quien se interese por este procesador necesitará tener un presupuesto desahogado para hacer frente a la adquisición de componentes de primera calidad que no frenen el rendimiento, o se estará malgastando el dinero.   Los benchmarks habituales para evaluar el rendimiento del procesador incluyen Cinebench R10 y ahora también la versión R11.5, optimizada para el aprovechamiento de todos los núcleos. También se trabaja con PovRay 3.7 beta, que tradicionalmente se beneficia de manera notable de la presencia de más de un núcleo. X264HD es otra de la pruebas involucradas con el rendimiento multimedia para la codificación de vídeo en distintas calidades. Kribibench es otro de los test tradicionales, con un récord absoluto de más de 6,2 fps. Se emplea la escena "ultra" en el modo "realistic", que es el más exigente de todos.   En cuanto a gráficos, las pruebas con 3DMark Vantage muestran que la aceleración de PhysX propia de las tarjetas de NVIDIA sigue estando fuera del alcance de un procesador, por mucho que tenga 6 núcleos físicos y 12 lógicos.      El benchmark Cinebench R10 permite comparar el rendimiento con un único núcleo frente al rendimiento con todos los núcleos disponibles. La superioridad de Gulftown es manifiesta, con unos resultados casi de otro planeta.        PCMark Vantage y PCMark 2005 son clásicos a la hora de evaluar las habilidades de un equipo. Desafortunadamente faltan los resultados de Skulltrail, aunque de nuevo se deja ver la clara superioridad de los nuevos procesadores Gulftown.          Kribibench también permite aprovechar todos los núcleos del procesador y es una prueba puramente de CPU y memoria. De nuevo Core i7 980x EE está a la cabeza, batiendo récords.      PovRay es otro de los benchmarks "estrella" para evaluar la capacidad de procesamiento de una CPU. En este caso se ha tomado nota de la potencia consumida por cada sistema durante los cálculos. Core i7 980x ha conseguido el mejor resultado, pero con un consumo sensato por debajo de Skulltrail, por ejemplo.      Otros resultados notables son los de 3DMark Vantage, con 32129 puntos para CPU, 22721 puntos para la parte gráfica y un total de 24515 puntos para el sistema sin "overclockear". Cinebench R11.5 es la nueva versión de Cinebench, con resultados de 1,35 y 9,87 puntos para le sistema overclockeado, con un factor de ganancia comparando el resultado con un núcleo frente a lresultado con todos los núcleos, de 7,31. Se nota que Hyperthreading consigue su objetivo a la hora de conseguir que el factor de multiplicación sea superior a 6x. No hay que olvidar que el procesador tiene 6 núcleos físicos realmente. Los otros seis son "virtuales".   Pruebas con máquinas virtuales   Las pruebas clásicas no son realmente la prueba de fuego para estos equipos extremos. Si bien ofrecen resultados espectaculares, es conveniente enfrentarse a escenarios que se salgan un poco de lo habitual. Así pues, se procedió a instalar tres máquina virtuales sobre la última versión de VMWare Workstation, la versión 7. En una se instaló Windows XP, en otra Ubuntu 9,01, y en la tercera una versión Ultimate 64 bits de Windows 7.   En un primer momento, la instalación no presenta complicación alguna, aunque hay que tener la precaución de usar más de un disco duro para que no todas las máquinas virtuales "ataquen" al mismo disco, lo cual compromete el rendimiento de cada sistema operativo virtualizado a causa del cuello de botella que es un disco SATA convencional. En el caso de un disco SSD, el problema suele ser la capacidad, y no sería mala idea usar un disco SSD de baja capacidad (40 GB, por ejemplo) para cada máquina virtual instalada.   De este modo se consigue un equilibrio entre inversión, rendimiento y portabilidad, pues de ese modo se puede usar esa máquina virtual en otros equipos que también cuenten con una solución de virtualización compatible. En cada máquina virtual se realizarán pruebas de rendimiento en paralelo de modo que se pueda conseguir una "foto" de las habilidades multitarea de un sistema con el procesador Core i7 980x EE. Los resultados tendrán que esperar a finalizar las baterías de pruebas. De momento, los resultados "estándar" muestran un rendimiento excepcional.    Conclusiones   Intel ha hecho los deberes con este procesador Core i7 980x EE. El aumento de rendimiento que se consigue con el añadido de dos núcleos más, así como la mejora notable en el proceso de fabricación consiguen que este procesador sea el producto más recomendable para entusiastas e incluso profesionales liberales que busquen un producto excepcional en rendimiento y en comportamiento.   Se echa de menos, no obstante, una aplicación que permita asignar perfiles de uso a los núcleos. Con 12 cores entre los físicos y los virtuales, es posible crear perfiles que asignen un núcleo al antivirus, dos al explorador, cuatro a una aplicación de codificación de vídeo, cuatro a una aplicación de edición de imágenes, por ejemplo. Ese tipo de perfiles permitiría configurar escenarios de rendimiento priorizado de acuerdo con cada necesidad. AMD tiene este tipo de herramientas en su catálogo de productos, y a Intel le vendría bien ofrecer una similar para este tipo de productos tan avanzados.   Si a lo expuesto añadimos que incluso  a casi 4 GHz de velocidad se mantuvo estable durante las pruebas de rendimiento, el resultado es un procesador que incluso si se anunciase dentro de seis meses o un año seguiría siendo actual. No es factible que Intel presente más procesadores extremos hasta después de la primera oleada de procesadores Sandy Bridge con nueva arquitectura y 32 nm, y eso será dentro de un año más o menos y si todo va bien.   En definitiva, hay procesador para rato, aunque puede que se vea algún stepping entre medias con refinamientos en la arquitectura.  Es un procesador caro (999 euros), desde luego, pero no hay nada mejor ahora mismo en el segmento.  
4 comentarios0 shares
16/03/2010marenas
MWC 2010 en vivo: día 0

MWC 2010 en vivo: día 0

MWC 2010: Esta edición de Mobile World Congress empieza con una buena dosis de diversificación. Los teléfonos lejos de ser los únicos protagonistas, ven cómo se suben al carro de la movilidad todo tipo de dispositivos. Los principales fabricantes arropan sus presentaciones con servicios y nuevas propuestas a la vez que nuevos dispositivos móviles de todos los tamaños se unen a los terminales para mostrar que la batalla por la ubicuidad y la conectividad no será patrimonio de los teléfonos.   Incluso las presentaciones oficiales de los terminales móviles no son casi nada si no van acompañadas del anuncio de tiendas de aplicaciones o entornos de desarrollo para aderezarlas. Qualcomm, con su tecnología de procesamiento y comunicaciones, ha fijado como objetivo no solo los terminales al uso, sino también la electrónica de consumo y la automoción.    Sin olvidar los SMART, que se podrían clasificar junto a terminales móviles con batería y pantalla propios de los notebooks o netbooks. Una idea que permite combinar, al menos sobre el papel, la experiencia de uso de un portatil con la "always on" de los móviles. Habrá que ver cómo conviven los smartbooks con los MID y los netbooks / notebooks, pero lo seguro es que opciones va a haber para quienes busquen una experiencia móvil total conectada a la Red.   Mirasol, el ebook reader de Qualcomm, también tiene cabida en esta edición de MWC. Con una tecnología a medio camino entre la tinta electrónica y las pantallas LCD, parece conseguir "a primera vista" su objetivo (ver las fotos). Aunque es necesario que combine la experiencia de lectura del papel con la inteligencia propia de un dispositivo conectado para que suponga una autentica revolución.   Samsung, con el terminal móvil Wave, sigue en su línea: dispositivos con una pantalla sencillamente espectacular, un diseño elegante y "slim" que esta vez da el salto al aluminio. No solo por estética sino también para ayudar a disipar el calor generado por el procesador a 1 GHz que integra. Es un Jet en esteroides, con una multitarea muy lograda y además, con entorno de aplicaciones: Bada.   Por supuesto, es un terminal "social" y conectado. El primer contacto con el terminal permite identificar precisamente algunas de estas virtudes.: rapidez, velocidad. Y casi se nos olvida, su interfaz multitáctil de muy buena precisión y facilidad de manejo. La pantalla, super  AMOLED, se ve como si de una tele en pequeño se tratase. Además disfrutará, en línea con la última tendencia de Samsung, de conectividad con la familia de dispositivos de electrónica de consumo.  No hay que olvidar que Samsung ha presentado en el pasado CES una gama de televisores LED, la 9000, donde los modelos más avanzados incluyen un mando a distancia con pantalla para ver la televisión a distancia y sin cables. Además permiten conectarse con móviles, cámaras y otros dispositivos a través de DLNA. No estaría mal que se pudiera hacer lo mismo con este terminal Wave. La palabra clave de estos tiempos es sin duda la convergencia.   Sigue el MWC 2010 en directo por Twitter.  
0 comentarios0 shares
15/02/2010marenas
Probamos Intel Clarkdale

Probamos Intel Clarkdale

El Laboratorio de MuyComputer ha realizado pruebas con el procesador Intel Core i5-661, uno de los últimos lanzamientos de Intel basados en la plataforma Westmere y con tecnología de 32 nanómetros. Probamos el micro sobre varias placas base de última hornada y analizamos su rendimiento, cómo funciona el sistema gráfico integrado y qué ventaja real tiene la propuesta de Intel frente a otras soluciones del mercado.El roadmap de Intel se va consumiendo a un ritmo muy cercano a los planes de la compañía. Su estrategia tick – tock marca el ritmo de un progreso constante que ahora se materializa en forma de nuevos chipsets y procesadores. Tick Tock Tick Tock Tick Tock Tick Tock Fecha aproximada 01 – 2006 07 - 2006 01 - 2008 11 - 2008 01 – 2010 2010 2011 2012 Tecnología 65 nm 65 nm 45 nm 45 nm 32 nm 32 nm 22 nm 22 nm Arquitectura P6 / Netburst Intel Core Intel Core Intel Nehalem Intel Nehalem (Westmere) Intel Sandy Bridge Intel Sandy Bridge (Ivy Bridge) Intel Haswell Desktop Presler / Cedar Mill Kentsfield / Conroe Yorkfield / Wolfdale Bloomfield / Lynnfield Gulftown / Clarkdale - - - Portátil Yonah Merom Penryn Clarksfield Arrandale - - - Procesadores Intel Core, Pentium Intel Core 2 Intel Core 2 Intel Core i7 / i5 Intel Core i3/i5/i7 - - - Zócalo Socket 478, LGA 775 LGA 775 LGA 775 LGA 1366 LGA 1156 LGA 1156 LGA 1156 LGA 1156El propósito de Intel con esta estrategia es el de minimizar riesgos evitando la coincidencia de un cambio de arquitectura y un cambio de tecnología de fabricación al mismo tiempo. Lo cierto es que el tiempo parece haber dado la razón al gigante norteamericano con una estrategia que ha proporcionado excelentes series de lanzamientos sin ningún problema serio.En los últimos meses AMD no está siendo un rival problemático, pero aun así Intel está cumpliendo sus objetivos al menos en lo que respecta a los procesadores, porque en el apartado de los gráficos y computación paralela, Larrabee está siendo un proyecto irregular y problemático. Si los rumores acerca de una posible colaboración entre Intel y Sony para la tecnología de la consola Playstation 4 son ciertos, o incluso si los de una hipotética compra de NVIDIA por parte de Intel se materializasen, el panorama cambiaría radicalmente, pero, de momento, donde Intel sobresale sin fisuras es en el segmento de los procesadores.Hacia un SoC realEn este mes de enero de 2010 Intel está presentando a modo de comienzo de año, el resultado de un Tick. Nehalem se desarrolló sobre la tecnología de 45 nm. y se ha perfeccionado durante los últimos meses mientras se ponen a punto para migrar a los 32 nm. Ahora es el momento para que Intel lleva Nehalem un paso más allá con una interesante reducción del tamaño de los chip que posibilita llevar los gráficos hacia el interior del chip del procesador.Bajo el sobrenombre de Westmere, Intel introduce las nuevas familias de procesadores tanto para sobremesa como para portátiles con gráficos integrados en la CPU. En total se trata de 17 procesadores Core i3/i5/i7 para sobremesa y portátiles (11 para portátiles y 6 para sobremesa), junto con 7 nuevos chipsets (4 para portátiles y 3 para sobremesa). Existe una familia de procesadores Pentium (como el Pentium G6950), aunque para configuraciones muy económicas y limitado en cuanto a rendimiento.La estrategia de Intel en esta primera aproximación hacia un auténtico “System on a Chip” o SoC, consiste en usar pastillas diferentes para la CPU propiamente dicha y para los gráficos. Están en el mismo soporte físico y encapsulado del procesador, unidos por una conexión QPI (Quick Path Interconnect) de alto rendimiento, pero se trata de “pastillas” de silicio diferentes (la correspondiente a los núcleos con tecnología de 32 nm., y la de los gráficos con tecnología de 45 nm.)Los ingenieros han conseguido eliminar un chip del chipset, que realmente deja de ser un “set” para convertirse en un único módulo. El procesador se comunica con este chip mediante FDI y DMI (Flexible Display Interface y Direct Media Interface), de modo que los gráficos integrados puedan comunicarse con los conectores de vídeo HDMI, VGA o DVI, así como el audio de la salida HDMI.Posicionamiento y escenarios de usoCon Westmere, Intel deja de lado (momentáneamente) las soluciones de cuatro núcleos. De este modo, sea para equipos de sobremesa o portátiles, se trata de procesadores con dos núcleos, aunque con un uso intensivo de Hyperthreading, de modo que pueden trabajar con cuatro “threads”. También se ha mejorado el funcionamiento de la tecnología Turbo Boost, que posibilita el aumento de la velocidad de reloj por encima de la nominal cuando se dan circunstancias favorables para ello. Por ejemplo, cuando no se emplean todos los núcleos y en general cuando se usa menos potencia en la CPU que la máxima admitida, de modo que se aumenta la velocidad hasta alcanzar ese límite. Con 32 nm frente a los 45 de Lynnfield o Clarksfield, y las optimizaciones propias de un refinamiento de la arquitectura es posible hasta doblar la velocidad nominal en casos como los procesadores Core i7- 620UM para portátiles de bajo consumo.El posicionamiento depende de la plataforma. Para portátiles, los modelos Core i7 están pensados para una audiencia que busca el máximo rendimiento en movilidad sin llegar a los extremos de los procesadores Clarksfield de cuatro núcleos. Para sobremesa, el modelo más “avanzado” es el Core i5 – 670 con 3,46 GHz de velocidad nominal y 3,73 GHz con Turbo Boost, aunque con un rendimiento inferior al de los procesadores Core i5/i7 Lynnfield o Bloomfield. Además, en el segmento extremo, para dentro de unas semanas está previsto que la tecnología de 32 nm. se ponga al servicio de los entusiastas con Gulftown, y el procesador de 6 núcleos especial para entornos multitarea y virtualización con mayúsculas.En cuanto a escenarios de uso, Westmere se posiciona muy bien en el segmento HTPC (Home Theatre Personal Computer). Su elevado nivel de integración permite a los fabricantes de placas base construir modelos microATX con un coste reducido y si no se busca un rendimiento excepcional, con un procesador Core i5 o incluso Core i3 se puede afrontar la construcción de un sistema para ocio digital multimedia. De todos modos, el TDP de los modelos de sobremesa está en torno a los 70 – 80 W, por lo que las soluciones basadas en procesadores móviles serían más convenientes en términos energéticos.En cualquier caso, la relación calidad/precio/prestaciones de los procesadores está muy bien dimensionada, y más ahora cuando los gráficos están integrados. Si no se busca un equipo para “gaming”, se trata de una tecnología suficiente para trabajar con Windows 7 y mover contenidos multimedia incluyendo Blu-ray.En los sistemas móviles, el repertorio de soluciones es más amplio que en los sistemas de sobremesa, e incluye propuestas de bajo consumo con un TDP de hasta 18 W. Con este tipo de soluciones integradas, se pueden construir equipo portátiles finos y ligeros para una experiencia en movilidad satisfactoria y también equipos de 15 – 16’’ equiibrados en lo que a rendimiento y tamaño se refiere. Además, los precios pueden modularse gracias a la amplia variedad de ofertas disponibles y a la granularización de esta gama Clarkfield / Arrandale.Sistema de pruebasPara comprobar el comportamiento de estos nuevos procesadores, Intel nos ha hecho llegar un procesador Core i5-661 junto con una placa base Intel Desktop Board DH55HC con chipset H55.Procesador Intel Core i5 661, 3,33 GHz (3,6 GHz con Turbo Boost) y 4 Mbytes de Smart Cache. Memoria: DDR3 1.333 MHz, doble canal. Placas base Intel Desktop Board DH55HC, ASUS P7H57D-V EVO y MSI H55M-E33. Zócalo: LGA 1156 para procesadores Corei5/i7. Chipset: Intel H55 Express. Memoria: 4 ranuras DIMM DDR3 1333 / 1066 MHz, hasta 16 GB. Gráficos: 1 x PCI-e 2.0 x16 + conexiones VGA, DVI, HDMI. Conexiones: 6 x SATA 3Gbps, 1 x PS/2, 6 x USB traseros, 6 USB internos, 2 x PCI-e x1. Audio: HDA 5.1 + 2 canales, S/PDIF. Red: Gigabit Ethernet Intel Pro 10/100/1000. Factor de forma: ATX.En la tabla adjunta se detallan los resultados de algunas pruebas comparando con sus rivales más directos y con la referencia del procesador Intel Core i7 870 como “techo” inmediato para los procesadores LGA 1156. Es importante destacar cómo el consumo de los nuevos sistemas se ve muy beneficiado por el nivel de integración.Clic para ampliar.Adicionalmente hemos podido contar con dos placas más de ASUS y MSI. Lo mejor de contar con dos placas es que se trata de dos filosofías muy distintas que representan muy bien las distintas aproximaciones que los fabricantes adoptarán al implementar configuraciones basadas en procesadores Intel Core con zócalo LGA1156.El modelo de Asus (P7H57D-V EVO) es una placa pensada para entusiastas, que además integra tecnologías como SATA 6 Gbps y USB 3.0. El modelo de MSI está más pensado para equipos multimedia, con pocas posibilidades de expansión pero perfecta para configuraciones que ocupen poco espacio, con una inversión mínima y con un consumo optimizado y equilibrado. El tipo de procesador que “encaja” con una placa como la de ASUS es preferiblemente de alto rendimiento, de tipo Core i5 o core i7 con cuatro núcleos. Es cierto que las conexiones para gráficos están presentes por “imperativo tecnológico” para quienes decidan instalar un Core i5 / i3 Westmere con gráficos integrados, pero el sobre precio no es significativo.Para placas como la de MSI (MSI H55M-E33) , el procesador por excelencia es un Core i5/i3 con gráficos integrados. El modelo Intel Core i5-661 es uno de los más avanzados de los nuevos modelos presentados por Intel, con un rendimiento elevado y un consumo equilibrado, pero se pueden elegir modelos menos exigentes y más económicos. El chipset H57 integra alguna funcionalidad adicional comparado con el H55, pero esencialmente se trata de la misma tecnología.Pruebas de rendimientoAl final, el grueso de las pruebas se han hecho con el procesador Intel Core i5-661 sobre la placa MSI H55M-E33. También se han realizado pruebas sobre la ASUS con chipset Intel H57 y la de Intel con chipset H55. En todos los casos, las diferencias no son siginificativas en cuanto a rendimiento, aunque en algunos casos (en el modelo de Intel) se observaron problemas de ajuste de la pantalla al reproducir películas Blu-ray a pantalla completa con el software Cyberlink PowerDVD. Se trata casi con toda seguridad de un problema aislado en la placa de pruebas. En cualquier caso, la filosofía de la placa Intel y la de MSI son semejante, enfocadas sobre todo a configuraciones HTPC (Home Theatre PC) o equipos con diseños compactos.Pruebas multimedia y videojuegosEn todos los casos, como “monitor” se ha usado una televisión Samsung LED Serie 8 de 40’’ a través de un cable HDMI. El ajuste del escritorio del sistema operativo Windows 7 Ultimate 64 bits a la pantalla se realiza fácilmente, aunque es conveniente desactivar las mejoras de pantalla en el televisor y en el panel de control de los gráficos integrados para evitar que los caracteres en pantalla se vean perjudicados por un excesivo “sharpening” o un contraste especialmente exagerado. Para ver películas o fotos a pantalla completa se pueden activar estas mejoras y realces para aumentar la saturación y el contraste.Como altavoces se emplearon los de la propia televisión, así como los de una minicadena Denon conectada a la televisión mediante un cable óptico. De este modo, si se elige en el televisor usar los altavoces externos, lo que se está haciendo es llevando el sonido que sale a través del cable HDMI hacia la cadena Denon para que esta procese la información multicanal. También se contó con una unidad Blu-ray de LG conectada al equipo, así como con el software Cyberlink PowerDVD y ArcSoft Media Theatre.Los resultados en el capítulo multimedia han sido bastante buenos. El benchmark HQV HD para Blu-ray arroja un buen nivel de calidad a la hora de tratar con artefactos visuales, incluso por encima de reproductores Blu-ray dedicados. El secreto está en el software reproductor y en las opciones de desentrelazado y procesado del vídeo. Lo cierto es que el nuevo panel de control de Intel para los gráficos integrados es más completo y con más opciones para configurar el comportamiento del sistema en este apartado.El audio está bien tratado, o “no tratado” si se prefiere, pues directamente se transporta hacia el dispositivo multimedia externo, con compatibilidad con Dolby True HD y DTS Master Audio. Y además, con margen para hacer otras actividades al mismo tiempo. Con dos núcleos físicos y cuatro threads, y la aceleración por hardware, procesar una película en Blu-ray es una cuestión que ocupa entre el 10y el 15 % de uso de CPU total.En juegos el rendimiento no es demasiado esperanzador. Los resultados con 3DMark Vantage no son destacables y como mucho permitirán jugar a títulos como “Los Sims” o WoW que no precisen de un renderizado gráfico intensivo. Eso sí, Windows 7 se mueve bien y permite mostrar los efectos visuales propios del sistema operativo sin problemas. Al menos siempre y cuando no se necesite hacer uso de Open CL u otras tecnologías nacidas bajo el amparo de DirectX 11. Resultados de menos de 500 puntos en 3DMark Vantage son suficientemente descriptivos como para no esperar demasiado. Eso sí. La tecnología de “conmutación de gráficos” permite en los portátiles emplear los de tipo integrado de Intel cuando se trabaja con batería, y los discretos de NVIDIA o AMD cuando se busca el máximo rendimiento como sea posible.Rendimiento generalA pesar de que se trata de procesadores con dos núcleos, Intel ha conseguido que el rendimiento de la familia Core i5 / i3 esté a la par con el de los procesadores Core 2 Quad con arquitectura Core. Gracias a una mayor velocidad de reloj nominal, junto con Turbo Boost e HyperThreading, los Core i5 / i3 superan en rendimiento a sus “alter egos” en la arquitectura Core para un mismo rango de precios.Si se desactivasen HT y Turbo Boost, las cifras de rendimiento estarían a la par o por debajo en muchos casos, pero la arquitectura Nehalem ha sido pensada para aprovechar hasta el último resquicio de rendimiento disponible.El consumo de los equipos está por debajo de sus equivalentes Core 2 y Core 2 Quad. Y sin ir más lejos, durante as pruebas fue raro pasar de un consumo medido de más de 100 W. En reposo (con el equipo sin aplicaciones en ejecución pero sin entrar en suspensión ni hibernación) el consumómetro marcaba valores en torno a los 50 W, mientras que en la ejecución de aplicaciones se situaba en torno a los 80 W con picos de hasta 90 – 100 W. El procesador Core i5-661 presenta la peculiaridad de tener unos gráficos integrados con una velocidad superior a la de los modelos acabados en “0” en vez de “1”, por lo que el TDP sube más. Con todo, el consumo está my bien modulado. Y si se baja la velocidad del bus hasta los 110 MHz (frente a los 133 nominales), las cifras medidas en el consumómetro bajaban hasta los 60 – 70 W. El rendimiento es menor, pero aún así suficiente para mover contenidos multimedia, por ejemplo.Obviamente, el rendimiento está por debajo de los procesadores Nehalem de cuatro núcleos de las familias Bloomfield o Lynnfield, pero es suficiente para cubrir las necesidades informáticas y multimedia del usuario medio.ConclusionesCon carácter inmediato los procesadores preferidos para la mayoría de los usuarios serán los nuevos Intel Core i3/i5/i7 tanto para equipos de sobremesa como para portátiles. De momento, a falta de probar equipos portátiles, desde aquí podemos recomendar sin que haya demasiada letra pequeña los procesadores de sobremesa. Los usuarios entusiastas, gamers o prosumers, deberán seguir apostando por la plataforma Bloomfield / Lynnfield. Y sobre todo a la vista del nuevo procesador con seis núcleos físicos que está previsto para dentro de unas semanas. Sus 12 threads concurrentes serán el punto de partida para la virtualización “en serio” junto con kits de memoria de hasta 24 GB. Para el resto de los usuarios, Westmere, con 32 nm y gráficos integrados es una alternativa económica, equilibrada, “limpia” y muy fácil de entender al simplificarse la disposición interna de los ordenadores donde apenas hay ventiladores, ni aparatosos “mogollones” de componentes apelotonados. Las placas H55 y H57 son lineales, despejadas y frías, con abundantes conexiones y BIOS cada vez más inteligentes.No esperes milagros en apartados como el gaming, pero para aplicaciones multimedia no sufrirás decepciones. Si encuentras una caja adecuada, un ventilador de perfil bajo silencioso (el de Intel es algo escandaloso) y un kit de control remoto para la aplicación Media Center (y un software Blu-ray que supla la carencia en este sentido por parte de Windows 7), podrás llevar el ordenador al lado de la tele en el salón sin que “cante”. Todo lo contrario, posiblemente te encuentres viendo la tele, grabándola, accediendo a YouTube o viendo películas o comunicándote desde el sofá de casa. Con un receptor AV y unos altavoces, el ordenador será más multimedia que nunca. Y con un consumo menor incluso que el de la consola Xbox 360 o la PS3.El precio dependerá de factores como el modelo de CPU, o los accesorios que elijas, pero por unos 500 euros podrías tener la configuración adecuada para disfrutar de un equipo majo alrededor de Clarkdale.En portátiles, Arrandale parece tener un potencial incluso mayor que para el caso de los equipos de sobremesa. Pero de momento esperaremos a analizar equipos concretos para hacernos una idea real y objetiva. Especialmente los modelos de bajo consumo con un TDP de 18 W pueden revolucionar el segmento de los 13 o incluso los 12 pulgadas.
1 comentario0 shares
07/01/2010marenas
MSI Bing Bang Trinergy

MSI Bing Bang Trinergy

Nunca es tarde para recordar que la placa base es un componente esencial para el correcto funcionamiento de un equipo. Y más aún si lo que se pretende es “forzar” el sistema más allá de los valores nominales de velocidad y voltaje. Para este tipo de usuarios extremos los fabricantes ofrecen productos muy especiales, como esta placa de MSI.Con un zócalo LGA 1156 y el nuevo chipset Intel P55 los fabricantes tienen un poco más complicado implementar soluciones multi GPU por encima de dos tarjetas gráficas. Y como respuesta a esta dificultad, NVIDIA propone un chip-bridge denominado nForce N200. MSI lo ha utilizado en su placa Trinergy dentro de la nueva gama Big Bang de productos extremos para entusiastas, donde a estas alturas se echa de menos otro modelo: Fuzion. Esta placa contaría con el chip Lucid Hydra 200 (www.lucidlogix.com) que en teoría permitirá combinar tarjetas de distintas marcas y tecnologías para conseguir un incremento del rendimiento gráfico.Sea como fuere, con esta solución es posible tener tanto triple XFire como triple SLI o SLI combinado con PhysX. Eso sí, el chip de NVIDIA es el más caliente de la placa en funcionamiento, incluso por encima del chipset Intel, a pesar de que las aletas de su disipador son notablemente más pronunciadas y se benefician del flujo de aire del ventilador de la CPU. En pleno funcionamiento, se han medido 55 grados en el chip nForce N200, mientras que en el resto de componentes será extraño superar los 40 grados.Construcción exquisitaLa placa Trinergy hace valer su elevado precio gracias a diferentes argumentos. Los condensadores Hi-c son los únicos que se pueden ver en la placa, y eso a pesar de que son más caros que los convencionales. Además, el sistema de heat pipes que saca el calor de las fases de potencia está sobredimensionado para conseguir mejores propiedades termodinámicas.Los resultados son satisfactorios y sólo al final del circuito de refrigeración se rozan los 40 grados, con menos de 35 en el resto de las zonas de influencia de este sistema de disipación. El perfil de casi todos los componentes en la superficie de la placa es muy bajo y contribuye a impedir que se obstaculice la instalación de tarjetas de expansión. Incluso los zócalos de memoria están suficientemente separados de la CPU para evitar que el ventilador tropiece con módulos que tengan sistemas de refrigeración con aletas prominentes, algo que si duda apreciarán los usuarios más avanzados.La electrónica es otra contribución a la causa para esta placa base, con un sistema de medición de voltajes en la placa mediante multímetro y sondas de medida, de especial interés para los overclockers extremos. También hay un conjunto de interruptores para anular las protecciones control sobre voltajes para la CPU o la memoria, aunque desde luego no debería tocarse salvo que se sepa muy bien qué se está haciendo. También hay pulsadores capacitivos para el encendido, el reinicio o la activación del modo “green” para ahorro de energía. Son botones super sensibles que redimen a MSI del mal tacto de los pulsadores mecánicos de otras placas en el pasado.Pero el botón realmente “mágico” es el OC-Genie. Un pulsador que una vez accionado, pone en marcha un sistema de optimización de los parámetros de funcionamiento del sistema para conseguir un aumento de la velocidad fiable, estable y seguro. El resultado es realmente óptimo, en tanto en cuanto no hay que preocuparse de nada y se consigue aumentar la velocidad sin hacer realmente nada. Un elemento de valor añadido para usuarios entusiastas de la tecnología pero no necesariamente de “cacharrear” con ella.Como guinda, está el accesorio OC Dashboard, que permite monitorizar en una descriptiva pantalla externa el estado del arranque o de funcionamiento de la placa, e incluso actuar sobre la frecuencia del bus del sistema para la práctica del overclocking. Los profesionales preferirán usar la BIOS para conseguir el máximo rendimiento, pero los usuarios “de a pie” tienen en este accesorio un elemento de valor añadido interesante. En el fondo hay material para justificar los más de 300 euros de placa, al mismo nivel de precio que los modelos X58 para procesadores LGA 1366.EstabilidadCon OC Genie activado, procedimos a pasar las pruebas habituales de rendimiento, y si bien los valores obtenidos dependen evidentemente de los componentes instalados, lo cierto es que no hubo problemas de estabilidad. Tampoco durante el funcionamiento normal , aunque sí fue complicado llevar a los cuatro módulos DDR3 2.133 hasta su frecuencia máxima, con 2.000 MHz como valor “usable”.Otras formas de llevar esta placa a modos de trabajo por encima de sus valores nominales es mediante el panel de control de software, que dispone de distintos perfiles preconfigurados y también acceso a los perfiles configurados en la BIOS. En cuanto a la memoria, un parámetro que hubo que tocar a mano en todos los casos fue el de la temporización de los comandos, que por defecto estaba siempre en el modo 2T, aunque en 1T no hubo problemas, al menos para velocidades de 1.600 MHz.ConectividadMSI sigue con su conectividad eSATA autoalimentada, de modo que no hace falta usar alimentación externa adicional. Además cuenta con un número de conexiones excepcional para USB y también doble conexión Ethernet Gigabit y FireWire. Los puertos SATA en placa son suficientes para conectar diez discos y configurarlos de manera independiente o en modos RAID.Por su parte el audio está formado por un conjunto de chip integrado en placa ALC889 de Realtek junto con una tarjeta de expansión (Quantum Wave Audio) que se conecta en un puerto PCI-e x1. El conjunto ofrece modos de audio compatibles con THX TruStudio PC y Creative EAX Advanced HD 5.0. Se trata de modos “mejorados” para gaming esencialmente, sin que sean realmente específicos para alta fidelidad como los ofrecidos por otros fabricantes y supone un nuevo giño al público objetivo de este exclusivo componente.La optimización del uso de las fases de potencia es ya una característica habitual, y en esta placa ya no se hace uso de espectaculares LEDS encendiéndose y apagándose para mostrar dinámicamente el número de fases en uso. Ahora se usa un discreto LED que muestra numéricamente cuántas fases están activas. Además, existe un modo en el cual se pueden apagar todos los LED de la placa. De todos modos, hay que tener en cuenta que para obtener el máximo rendimiento no se puede exigir un ahorro de energía más allá del que se obtiene con la gestión dinámica de fases o el apagado de los LEDS.Echamos de menos…En una placa como esta se echa de menos que ya exista compatibilidad nativa con las tecnologías USB 3.0 y SATA III 6 Gbps. No es nada que no se pueda incorporar mediante tarjetas de expansión, pero en un momento cuando otros fabricantes ya ofrecen estas tecnologías, sería bueno contar con ellas. De todos modos, no se trata de una carencia que se vaya a traducir en un menor rendimiento global. Los discos duros SATA III, por ejemplo, están limitados por la tecnología magnética y sólo con modos RAID se podría poner al límite SATA II. USB 3.0 sí supone una ganancia inmediata, pero aún no hay demasiados productos USB 3.0 comerciales.ConclusionesMSI sigue ofreciendo series especiales para overclockers y entusiastas en sus placas base, y este modelo Big Bang Trinergy supone mejorar apartados como la compatibilidad con triple SLI, el audio compatible con tecnologías específicas para gaming o la facilidad con la que se puede practicar overclocking con total seguridad o la complejidad con la que los overclockers extremos pueden poner a prueba la electrónica de la placa subiendo voltajes hasta límites realmente peligrosos.En resumen, una placa que lleva la plataforma Intel P55 a su máxima expresión y que recomendamos para usuarios avanzandos que puedan amortizar la inversión de hacerse con lo último en hardware para montar el equipo de sus sueños.
0 comentarios0 shares
10/12/2009marenas
Kingston SSDNow V40

Kingston SSDNow V40

Kingston se ha tomado muy en serio el mercado de los discos de estado sólido (SSD) como una prolongación de su comercialmente exitosa y dilatada experiencia en el mundo de la memoria. RAM primero y flash después, tanto llaves USB como tarjetas de memoria y ahora discos SSD. Analizamos una de sus últimas propuestas destinadas a empresas y particulares que quieren mejorar el rendimiento de cualquier sistema con interfaz SATA.Hace unos días publicamos un informe sobre tecnología SSD que sirve como introducción para evaluar cómo ha resuelto Kingston este nuevo producto dentro de su catálogo de soluciones de estado sólido.El disco que analizamos se posiciona como una solución con un precio al alcance de cualquier economía, e incluso compitiendo con productos USB Flash. De todos modos, se posiciona preferentemente como producto “de aceleración” interno en equipos de sobremesa y portátiles. Como solución externa, precisaría de una interfaz eSATA para poder beneficiarse de las ventajas de su elevado rendimiento, como veremos en unos momentos.En su interior este disco esconde esencialmente tecnología Intel junto con 32 Mbytes de memoria Micron a 133 MHz que sirve de apoyo para el controlador Intel PC29AS21BA0. La memoria propiamente dicha es también de Intel, 29F64G08CAMDI, con la nueva tecnología de 34 nm., distribuida en cinco módulos, con lo que tenemos que cada uno tiene una densidad de 8 Gbytes. Hay huecos para instalar otros cinco en la parte superior del PCB y otros 10 en la inferior, lo cual hace un total de 160 Gbytes para esta gama de discos.El controlador de Intel está preparado para trabajar con 10 canales en paralelo, que sería equivalente a repartir las operaciones de escritura y lectura entre los diez módulos de memoria NAND, pero en este modelo de 40 Gbytes sólo hay cinco disponibles. Tiene sentido a la vista de la moderada velocidad de escritura, de algo más de 40 MB/s, aunque a cambio presenta un elevado rendimiento en el apartado de operaciones de entrada/salida (IOPS).A modo de resumen de características, aquí están las más destacadas:- Kingston SSDNow V40 Accelerator Drive. - Velocidad Secuencial: hasta 170 MB/s en lectura y 40 MB/s en escritura. - Formato: 2,5 pulgadas. - Tecnología: NAND de 32 nm. -Partes móviles: no tiene. - Interfaz: SATA, 3 Gbps. - Compatibilidad S.M.A.R.T.: Sí. - Garantía: 3 años, soporte 24/7. - Capacidad: 40 Gbytes. - Consumo: 0,15W, 0,06W en reposo. - Tiempo de vida: 1 millón de horas (5 años con una tasa de escritura diaria de 20 Gbytes). - Aplicaciones: disco para acelerar el sistema operativo, pero no como sistema de almacenamiento de datos. - Software: Acronis True Image para realizar la clonación del disco.Este disco se vende tanto como solución convencional (el disco y ya está), como en kit para actualizar el ordenador de sobremesa. En este último caso se incluye un adaptador de 2,5 pulgadas a 3,5 pulgadas y el software de clonación Acronis True Image para pasar los archivos del sistema al disco SSD de modo que no haya que reinstalar desde cero, aunque en la práctica no estará de más partir de una instalación limpia para maximizar el espacio. Si se dejan los 8 Gbytes libres recomendados, tras instalar Windows 7 Ultimate el espacio libre no es realmente holgado.¿Son suficientes 40 Gbytes?Según se mire. Desde luego que sólo 40 Gbytes no, pero una solución combinada en la que este disco conviva con otro de tecnología magnética no es descabellada. 40 Gbytes es una capacidad modesta si se compara con los discos de 1,5 Tbytes o 2 Tbytes. Pero por otro lado, Kingston no pretende convertir a este disco en la solución universal para todos. En los casos en los que se haga un uso poco ambicioso del equipo, usar 40 Gbytes como disco de sistema es una propuesta realizable. A poco que se haga un uso avanzado del sistema estos 40 Gbytes serán un cuello de botella, y en cualquier escenario hay que observar ciertas normas como paso previo a la instalación de esta solución SSD. Normas que también es conveniente aplicar en discos SSD de mayor capacidad, todo sea dicho.Es recomendable desactivar todas las opciones que tengan que ver con cachés e indexación: en los discos SSD no es necesario y además, en el caso de este modelo SSDNow V 40 Gbytes se ahorra un espacio en disco vital. Si se tiene en cuenta que es recomendable dejar entre un 15 % y un 20 % de espacio libre en la unidad, y que cualquier acceso superfluo significa reducir la vida útil y entorpecer a los algoritmos de recuperación del espacio ocupado, estas tácticas se justifican inmediatamente.Tampoco está de más modificar las variables del sistema para “mover” las carpetas de descargas, los programas o los documentos del usuario al disco magnético de más capacidad.Discos muy “RAIDy”Si este disco por sí solo es interesante para el segmento mainstream, sin más que añadir otra unidad y configurar el modo RAID 0, se conseguirá aumentar la capacidad de la unidad hasta 80 Gbytes, y además duplicar teóricamente el rendimiento de la unidad. En la práctica, un RAID 0 no supone un rendimiento 2x en todos los apartados, pero se tendrá una solución excelente en términos de rendimiento y capacidad con un precio muy interesante.Pruebas de rendimientoPara comprobar si realmente este disco estaba a la altura de los esperado, se trabajó con una configuración basada en el chipset Intel X58 junto con el procesador Intel Core i7 965 sobre la placa base ASUS Rampage II Extreme. Como memoria, se trabajó con 12 Gbytes de memoria Kingston a una velocidad de 1.066 MHz por motivos de estabilidad y compatibilidad de modo que se pudiera instalar un disco RAM con facilidad y garantías.Como disco magnético se trabajó con una unidad Seagate Barracuda 7200.12 de 500 Gbytes y un único plato, y como disco SSD se trabajó con la unidad de prueba SSDNow V 40 Gbytes Accelerator. Se comprobó que el software de clonación funcionaba correctamente, pero para la instalación definitiva se partió de cero con un disco Windows 7 Ultimate. Como referencia, baste decir que la instalación de Windows 7 se completó en poco más de 12 minutos.PCMark Vantage y PCMark 2005Dos pruebas que ofrecen una información detallada del comportamiento de un disco SSD son las relacionadas con el disco duro dentro de las suites PCMark Vantage y PCMark 2005. En las gráficas se puede ver cómo el disco SSD está por encima del disco magnético, aunque mucho más arriba está el disco RAM. En todas las pruebas se muestra contundente y sin fisuras.HDTach 3.0 Esta aplicación proporciona datos sobre las velocidades de transferencia en lectura y escritura. Así como el tiempo de acceso, que también está muy por debajo en los discos SSD si se compara con los de la lenta tecnología magnética. Tiempos de décima de milisegundo, frente a decenas de milisegundos lo dicen todo.Intel IOMeterEl resultado es bueno, muy bueno, salvo por el apartado de la velocidad de escritura de “sólo” 40 MB/s, aunque en la práctica está por encima en algunos megas. Lo mismo ocurre con la lectura, donde las pruebas arrojan resultados más altos que los publicados en las especificaciones. Además, la merma en el rendimiento tras haber “degradado” la unidad (copiando archivos hasta alcanzar el límite de almacenamiento disponible, por ejemplo) no es grave y se puede convivir con ellas hasta que TRIM se haga realidad en el SO o en los controladores y permita una gestión óptima de la “recolección de basura”.Esperamos probar pronto el modo RAID con dos unidades para ver hasta qué punto se mejora una solución con un precio rompedor, una capacidad “delicada” y un poder de aceleración significativo para las tareas cotidianas en el PC. Para los portátiles no es recomendable al no tener la opción de instalar un segundo disco duro de más capacidad.El futuro de los discos SSDTal y como se decía al principio, los discos SSD están aún dando sus primeros pasos como soluciones de almacenamiento. La interfaz SATA, por ejemplo, está pensada más para comunicarse con discos magnéticos que con discos SSD, que están más cerca de la memoria RAM que de los discos duros en lo que a “interioridades” se refiere. En las pruebas se ha configurado un disco RAM para mostrar las cifras obtenidas a partir de la tecnología dinámica DRAM, abrumadoramente superior a la estática de los discos SSD, pero es cuestión de tiempo que aumenten su velocidad.A poco que se popularicen las soluciones RAID, la velocidad de las unidades superará la de la propia interfaz SATA que entra ahora en la generación SATA 6 Gbps. Al final, de lo que se trata es de que los datos y los programas estén disponibles para la memoria del sistema, por lo que no sería descabellado pensar en futuros controladores de memoria que además de “hablar” con la RAM, pudieran comunicarse a nivel electrónico con la controladora de los discos SSD.Otros posibles productos son unidades en las que convivan al mismo tiempo las tecnologías magnéticas y SSD, sobre todo de interés para equipos portátiles donde no hay hueco para dos unidades de almacenamiento (en general).Kingston también habla de posibles “bundles” en los que se vendan estas unidades SSDNow V 40 Gbytes junto con kits de memoria HyperX. A la vista del rendimiento obtenido en las unidades de disco “montadas” en RAM, no estaría mal disponer de una cantidad de memoria elevada entre 8 y 12 Gbytes para asignar 6 o 4 Gbytes como unidad de altísimo rendimiento para trabajar con archivos temporales o como unidades Readyboost para caché del sistema.En cuanto a tecnología, los controladores aún tienen que mejorar. Indilinx, JMicron, Samsung o Intel son los proveedores más frecuentes de controladores en la actualidad, pero habrá más. Quizás se pueda hablar de controladores programables que puedan modificar sus algoritmos de forma dinámica según el tipo de uso que se le quiera dar a la unidad. Si se trabaja sobre todo con accesos secuenciales, el controlador tendría un comportamiento dado, y si se pasa a trabajar con archivos pequeños, otro. O incluso se podría hacer que desde el propio disco SSD la controladora “gobernara” los discos RAM en memoria DDR3 para trabajar de un modo más eficiente con ellos y a nivel de hardware sin necesidad de instalar soluciones de software.
0 comentarios0 shares
02/11/2009marenas
Especial tecnología SSD

Especial tecnología SSD

Los discos SSD son cada vez más populares y muchos usuarios se preguntan cuáles son las ventajas reales de esta nueva tecnología. Nuestro laboratorio técnico se ha puesto manos a la obra y ha elaborado un completo informe donde repasamos multitud de aspectos sobre este nuevo sistema de almacenamiento acerca de su funcionamiento, prestaciones, ventajas reales y qué podemos esperar de ellos en el futuro.            Los discos de estado sólido se encuentran aún en los albores de su existencia como solución de almacenamiento y aún no están definidas muchas de sus atribuciones. En el segmento empresarial su papel está más claro, aunque siempre relacionados con un aumento del rendimiento o la fiabilidad a cualquier precio.   En el mercado de consumo, o incluso en el empresarial como solución personal de almacenamiento para portátiles o equipos de sobremesa, la variable precio es más relevante, al no haber un retorno claro de la inversión realizada. Se busca más rendimiento o más fiabilidad, aunque no siempre es posible ni justificable pagar más de 600 € por un disco de 80 Gbytes, por ejemplo. Además, para un uso personal, las capacidades de almacenamiento elevadas son un factor muy valioso y determinante a la hora de elegir un disco para el equipo.   Así pues, las decisiones de compra/inversión en el segmento de consumo y en el doméstico o personal están basadas en argumentos muy distintos. Sin ir más lejos, antes de la llegada de los discos SSD, las empresas con sistemas de bases de datos on-line llegaban hasta el extremo de comprar discos magnéticos de 15.000 rpm. SCSI en los que sólo se habilitaba la zona exterior, donde la tasa de transferencia es sustancialmente mayor. De este modo, se decidía sacrificar capacidad de almacenamiento en aras de una mayor velocidad. Y a cambio se configuraban RAIDs con más unidades para mantener la capacidad y también aumentar el rendimiento y la seguridad combinados.   En los sistemas personales, este tipo de decisiones están fuera de lugar, aunque salvando las distancias, la mejora del rendimiento y la fiabilidad son argumentos que ya están detrás de la adquisición de discos de estado sólido en el contexto de la informática personal. O detrás de la compra de equipos con discos de estado sólido preinstalados.        Las señas de identidad de la tecnología SSD   Pero, ¿qué hace que un disco de estado sólido sea más rápido y más fiable, o más caro y con menos capacidad? Aparentemente, vistos desde afuera, se trata de unidades de 2,5 pulgadas en su mayor parte, con dimensiones iguales a las de los discos convencionales con tecnología magnética.   Pero internamente carecen de partes móviles como en la tecnología magnética. La información se almacena en celdas de memoria en vez de la clásica superficie magnética con partículas polarizadas y recorrida por un cabezal magnético “flotando” sobre los platos giratorios con velocidades de rotación de 4.200, 5.400, 5.900, 7.200, 10.000 o incluso 15.000 rpm.   De todos modos, sólo por el mero hecho de cambiar la tecnología magnética por la de células de memoria transistorizadas no se puede garantizar que el resultado sea óptimo. Los discos magnéticos han mejorado mucho y los modelos más recientes con tecnologías de almacenamiento perpendicular son capaces de superar tasas de transferencia secuenciales de más de 100 MB/s en lectura y escritura.          El problema de los discos duros no es el acceso secuencial ni mucho menos: el reto son los accesos aleatorios. Imagina que escuchas una cinta de casete de principio a fin. Y haces lo mismo con un CD y luego con un iPod. Para un uso secuencial las diferencias en rendimiento no existen: todos los sistemas se comportan igual. Ahora vete saltando de canción en canción, escuchando sólo unos segundos de cada tema, por ejemplo. Con la cinta, directamente olvídate, con el CD podrás obtener un resultado medio decente pero notablemente peor que el obtenido con el iPod.   Los discos duros magnéticos son algo así como los CDs, donde el tiempo invertido en encontrar el punto donde está la información buscada es significativamente grande comparado con el tiempo de escucha. El iPod es algo así como el equivalente a los discos SSD, donde no hay partes móviles y se va al punto de la reproducción exacto de un modo esencialmente instantáneo.   No todos los SSD son iguales >  
0 comentarios0 shares
29/10/2009marenas
No todos los SSD son iguales

No todos los SSD son iguales

De todos modos, algo que ya parece estar claro en el momento presente es que la pegatina SSD en un disco no garantiza que las aplicaciones se abran “al vuelo” o que el sistema operativo vaya más fluido. En el fondo, el acceso a las células de memoria necesita de un sistema electrónico controlador que permita leer y escribir la información de un modo rápido y eficiente. Si el controlador no hace bien su trabajo, el resultado puede llegar a ser peor que el obtenido con un disco magnético.La primera gran distinción está en las distintas tecnologías de memoria existentes. En última instancia todas están emparentadas, ya sean las de tipo dinámico como la RAM del sistema, o las estáticas donde la información permanece aunque se corte la alimentación de energía. Y dentro de las estáticas hay varios tipos: NOR y NAND por un lado, con la memoria NOR como patrimonio de los dispositivos móviles que necesitan una tecnología apta para ejecutar directamente los programas sobre ella (típicamente es donde se instala el SO), y la memoria NAND como tecnología apta para almacenar datos, pero que necesita que el código de los programas o los contenidos se lleven a la memoria del sistema para que sean accesibles y útiles. La memoria NAND es la que se usa en las llaves USB, tarjetas de memoria o los discos SSD.NAND SLC y MLCPor último, dentro de la tecnología NAND hay dos posibles interpretaciones para las células de memoria: SLC y MLC. Single Level Cell significa que en cada célula de memoria se codifica un valor binario que puede ser “0” o “1”. Multi Level Cell, por su parte, significa que en cada celda de memoria se almacena un valor binario “00”, “01”,”10”, “11”. Esto se consigue “simplemente”, permitiendo que cada transistor almacene cuatro niveles de voltaje distintos en vez de los dos de SLC. En teoría es perfecto, pues de este modo se consigue que la capacidad de los discos aumente sin que haya que aumentar el número de chips implementados físicamente.Por este motivo, la capacidad de los discos MLC está ya en torno a los 500 Gbytes, pero para los SLC es complicado encontrar modelos por encima de 160 Gbytes, con 80 Gbytes o 40 Gbytes como capacidades típicas. En la práctica, este carácter multinivel hace que sea más complicado discernir en el momento de la lectura qué valor binario hay escrito, y más crítico el proceso de la escritura para evitar errores. Por no hablar de la reducción en el número de ciclos de escritura posibles.El nivel de voltaje depende de procesos electrónicos muy agresivos con los materiales semiconductores, y la capacidad para “inyectar” los electrones precisos para conseguir un nivel concreto se va degradando hasta que no es posible conseguir escrituras precisas. En un disco SLC, sólo hay que discernir entre dos valores. Por encima de cierto umbral de carga se trata de un “1”, y viceversa.La controladoraLa estructura de un disco SSD es conceptualmente simple: al conector SATA llegan las peticiones de lectura y escritura, que pasan a un controlador que esencialmente tiene que encontrar las celdas implicadas en esas operaciones y organizar las operaciones del modo más eficiente posible. Junto al controlador hay un chip de memoria empleado para el almacenamiento temporal de datos, así como la memoria propiamente dicha, que en los discos SSD se organiza en canales. De este modo, el controlador puede trabajar en paralelo con un número variable de pastillas de memoria, que en modelos como los de Intel llegan a ser hasta 10.La unidad de memoria mínima que se puede escribir en un disco SSD MLC es de 4 Kb. O dicho de otro modo, si se quiere escribir 1 Kbyte de información en el controlador se “rellenará” el “chunk” de datos con 3 Kbytes adicionales. A la hora de borrar, la situación se complica, pues el tamaño del bloque mínimo que se puede borrar es de 512 Kbytes. Además, en todos los discos SSD, la controladora tiene la misión de distribuir las operaciones de escritura de un modo uniforma en todas las celdas de memoria para evitar que haya zonas del disco que se degraden con más rapidez que otras. Como puedes ver, no es oro todo lo que reluce.Recolección de basuraEstas “complicaciones” hace que el trabajo del controlador no sea, ni mucho menos, evidente. La inteligencia a la hora de gestionar estas operaciones es determinante para conseguir un rendimiento elevado en todo momento. Sobre todo, en los discos MLC, el problema de no poder borrar bloques menores de 512 Kbytes es bastante serio. Los algoritmos más simples van escribiendo datos en las zonas libres, que se van agotando con el día a día. Además, en Windows, cuando se solicita el borrado de un dato, realmente sólo se marca como “disponible”. En los discos magnéticos eso suponía ahorrar un precioso tiempo en la operación de borrado. Simplemente, cuando se pedía escribir, se “machacaba” el dato y en paz.En los discos SSD, este comportamiento supone liarlo todo. Lo ideal sería que tras pedir el borrado de una celda, no sólo se marcase como borrada, sino que se pusiese en una cola de procesado “interno” para borrarla del todo en caso de necesidad antes incluso de que el sistema necesite escribir encima. ¿Por qué? Recuerda que sólo se pueden borrar bloques de 512 Kbytes. Borrar esos 512 Kbytes significa leer todos los contenidos útiles del bloque, moverlos a una memoria intermedia, “machacar” los 512 Kbytes y volver a poner todo en su lugar salvo las celdas llamadas a ser eliminadas para dejarlas “a cero”, listas para ser empleadas escribiendo los mencionados bloques de 4 Kbytes. Pues bien, este tipo de algoritmos aún están en pañales tanto a nivel de controladoras como de sistema operativo, donde la gran esperanza es el comando “TRIM” que en Windows 7 supuestamente será el que ayude a decidir al disco SSD si tiene que abordar la tarea de borrado total de los bloques cuando sea posible o puede esperar a que haya menos celdas libres.El problema de no hacer un borrado preventivo se manifiesta cuando todo el espacio libre se ha consumido y la mayoría de las operaciones de escritura necesitan antes del borrado de bloques de 512 Kbytes al no haber suficiente espacio libre de verdad. En este caso, el tiempo percibido por el sistema y el usuario para completar una operación de escritura no sólo es el de escritura de esos 4 Kbytes, sino el de lectura de 512 Kbytes, almacenamiento en otra memoria, borrado de los 512 Kbytes y reubicación de los datos. Una locura que ocasionó serios problemas en los primeros modelos, incluyendo productos con precios mileuristas, y también a la compañía JMicron, responsable de algunos de los controladores menos eficientes de las primeras generaciones de discos SSD. “Garbage collenction” o recolección de basura es el nombre que se le da a los procedimientos para minimizar los efectos negativos asociados con la tecnología MLC.Write Amplification (amplificación de escritura) es el parámetro que permite cuantificar el efecto descrito anteriormente. Este valor es igual al cociente entre el tamaño del bloque de borrado (512 Kbytes) y el tamaño del bloque que se desea escribir (4 Kbytes). En este caso es de 512/4 = 128. Si el tamaño del bloque de borrado fuese de 128 Kbytes la amplificación de escritura sería de 32. Así pues, lo deseable es tener bloques de borrado que tiendan a tener el tamaño del bloque de escritura.< Especial tecnología SSD
0 comentarios0 shares
29/10/2009marenas
NVIDIA PhysX y Batman

NVIDIA PhysX y Batman

NVIDIA ha apostado fuerte por PhysX, una tecnología capaz acelerar la puesta en escena de objetos con un comportamiento “real” sujeto a la interacción con los personajes y el entorno. Hemos realizado una batería de pruebas con el exitoso videojuego Batman Arkham Asylum, un ejemplo perfecto de cómo PhysX puede ayudar a mejorar los gráficos y crear una experiencia más inmersiva para el jugador.           En la práctica, en el mundo del PC se está viviendo un momento extraño de escisión en el que parece como si los eternos rivales NVIDIA y ATI /AMD quisieran abrir camino de por medio buscando una diferenciación a nivel de habilidades gráficas y visuales exclusivas para los poseedores de sus productos. AMD/ATI lo hace ahora con DirectX 11, aunque en realidad se trata de la adopción temprana de un estándar, y NVIDIA lo hace con PhysX, que simula los fenómenos ambientales y físicos de forma hiperrealista.    Se trata de una puesta en escena complicada y que supone una importante penalización de rendimiento si se deja exclusivamente en manos de la CPU del equipo, por lo que los elementos “físicos” tienen que ser escasos y muy controlados en cuanto a cantidad. O al menos tenían que serlo a la vista de la cantidad de elementos físicos habilitados en Batman Arkham Asylum cuando se instala el parche para la actualización a la versión 1.1 y se tiene una tarjeta gráfica NVIDIA GeForce compatible con PhysX.   Desde los modelos GeForce 8600  GT y GTS ya es posible usar un chip gráfico de NVIDIA para acelerar la física de los juegos que incluyan esta tecnología en su motor, sin que de momento sea posible usar una tarjeta de AMD/ATI para realizar la misma labor. Otra opción es usar dos tarjetas, una para acelerar la física exclusivamente y la otra para acelerar los gráficos de manera convencional, sin conectarlas mediante SLI. De este modo el sistema puede redirigir la carga de trabajo a cada tarjeta según convenga.           En el juego Batman Arkham Asylum, las pruebas se han realizado con una tarjeta ASUS Mars Edición Limitada y con una tarjeta GeForce 8800 GT para la configuración con aceleración de la física mediante una tarjeta dedicada. Y los resultados, en una primera aproximación, son muy satisfactorios en lo que a impacto visual se refiere. Sobre todo se nota en la ambientación con la bruma a nivel de suelo, así como en el número de objetos “físicos” disponibles para interactuar con ellos: desde banderas y estandartes que se mecen al viento, hasta telas de araña mucho más densas y numerosas que en la versión sin física acelerada. También se incrementa el número de botes y latas que se caen de los cubos de basura, o el comportamiento de los folios amontonados por doquier, que pasan de ser texturas o “bloques” a ser hojas individuales que se apartan según las empujamos o vuelan a merced de la brisa y el viento. Los adoquines o las explosiones en algunas partes del juego también ganan en dramatismo gracias a PhysX.           No quiere esto decir que el juego no sea bueno sin la física, sólo que con ella gana muchos puntos, aunque a partir del análisis del comportamiento de PhysX en las tarjetas empleadas para el análisis también han surgido algunas dudas acerca de la implementación de la tecnología por parte de NVIDIA y los desarrolladores.    Como siempre, antes de comenzar con la enumeración y análisis de los resultados, es conveniente describir el equipo sobre el que se han realizado las pruebas.    Placa base: ASUS P5P77D Deluxe, chipset P55, zócalo Intel LGA 1156. Procesador: Intel Core i7 870, 2,93 GHz. Memoria: 2 x 2 Gbytes Kingston HyperX 2000 MHz. Disco duro: Seagate 7.200.12, 1 Tbyte. Fuente de alimentación: Enermax Revolution 85+, 1.020W. Ventilador: Thermalright. Monitor: HP 30’’, 2.560 x 1.600 píxeles nominales. Sistema operativo: Windows 7 Ultimate 64 bits. Tarjeta gráfica: Asus Mars Limited Edition (ejemplar 64 de 1.000). Además, también se han usado sendas Zotac GeForce GTX 280 y 8800GT para realizar las pruebas con la física separada. Controladores: Forceware v191.0    ASUS Mars es la tarjeta gráfica más potente del panorama GeForce, con dos tarjetas GTX 285 en una configuración SLI, superando incluso a la GeForce GTX 295, que también usa la “táctica” de emparedar dos tarjetas simples y unirlas mediante un SLI interno, pero en este caso el bus de memoria es menos ancho y la cantidad de RAM es menor. En la tabla adjunta se pueden ver resumidas las características principales de las tarjetas involucradas en este artículo.      GeForce 8800GT GeForce GTX 285 GeForce GTX 295 Asus GeForce Mars AMD / ATI Radeon HD 5870 Procesadores Stream 28 vertex shaders / 56 unidades de texturizado 240 2 x 240 2 x 240 1.600 Velocidad del chip / shaders 600 / 1.500 MHz 648 / 1.476 MHz 576 / 1.242 MHz 648 / 1.476 MHz 850 MHz Memoria 512 MB GDDR3 1.024 MB GDDR3 2 x 896 MB GDDR3 2 x 2.048 MB GDDR3 1.024 MB GDDR5 Velocidad de memoria 900 MHz (1.800 efectivos) 1.242 MHz (2.484 efectivos) 1.000 MHz (2.000 efectivos) 2 x 1.153 MHz (2 x 2.306 efectivos) 1.200 MHz (4.800 MHz efectivos) Ancho del bus 256 bits 512 bits 2 x 448 bits 2 x 512 bits 256 bit ROPS 16 32 28 32 32 Número de transistores 754 millones 1.400 millones 2.800 millones (2 x 1.400 millones) 2.800 millones (2 x 1.400 millones) 2.150 millones Tecnología de fabricación 65 nm 55 nm 55 nm 55 nm 40 nm Alimentación 1 x 6 pines 2 x 6 pines 1 x 6 + 1 x 8 pines 2 x 8 pines 2 x 6 pines    A continuación, los resultados obtenidos en las pruebas con Batman Arkham Asylum. Se ha procedido a ejecutar el juego sobre la configuración con la tarjeta Mars con la física activada al máximo y también con ella desactivada. Además, se ha instalado primero una tarjeta GTX 280 y luego una 8800 GT (una de las primeras tarjetas capaces de acelerar física) para ver las diferencias obtenidas al dedicar una gráfica a la aceleración exclusivamente.      F.p.s. (mínimo / media/ máximo) 2.560 x 1.600 1.920 x 1.200 1.600 x 1.200 1.024 x 768 PhysX ON (High), sólo Mars 28 / 58 / 90 38 / 64 / 93 32 / 67 / 101 43 / 81 / 115 PhysX OFF, sólo Mars 81 / 154 / 195 98 / 224 /321 95 / 239 / 358 95 / 285 / 469 Mars + GeForce GTX 280 dedicada 53 / 90 / 131 58 / 102 / 143 50 / 103 / 143 54 / 103 / 40 Mars + GeForce 8800 GT dedicada 42 / 81 / 110 51 / 91 / 124 43 / 91 / 126 47 / 92 / 123         Pruebas y conclusiones >  
0 comentarios0 shares
21/10/2009marenas
ASUS UL30A, ultraligero de lujo

ASUS UL30A, ultraligero de lujo

Los portátiles son productos tecnológicos complejos a la hora de posicionarlos. Las variables que los caracterizan de manera determinante son tan dispares como tamaño, peso, rendimiento, autonomía o incluso el acabado, el diseño y la estética. Lo deseable es tener el mínimo tamaño y peso, el máximo rendimiento, la autonomía más prolongada, el acabado más robusto y la mejor apariencia como sea posible.De todos modos, no es fácil, por no decir que es imposible, resolver la ecuación del portátil perfecto. Menor tamaño implica menor pantalla, por ejemplo, y la necesidad de emplear componentes de calidades modestas que no disipen mucha energía, que al mismo tiempo supone reducir el rendimiento. Y a su vez, un menor rendimiento repercute positivamente en la autonomía, pues componentes como el procesador o la memoria se benefician en gran medida de una menor velocidad de reloj en lo que a consumo de energía se refiere. Para complicar aún más la cosa, un menor tamaño supone tener menos margen para integrar baterías de alta capacidad, y al final, lo que se gana por un lado, parece que inevitablemente se pierde por otro.La propuesta de ASUSEl modelo UL30A es el resultado de un acertado manejo de las variables anteriores por parte de ASUS para conseguir un portátil muy versátil en todos los frentes. Con 1,7 kilogramos no es el portátil más ligero del mercado, pero es una cifra excelente en valor absoluto, que permite en la práctica llevar el equipo encima sin que suponga una carga excesiva. Además, el alimentador de corriente es tan pequeño como el de los netbooks y, afinando aún más, se podría afirmar que en raras ocasiones será necesario llevar encima el alimentador si previamente se ha cargado la batería en casa.El reducido grosor es también una tendencia en el mercado actual de equipos utraligeros y un apartado cuidado en este modelo, que facilita llevar el ordenador en una mochila o un maletín sin problemas de angosturas. Además, con 13,3’ pulgadas de diagonal, es posible tener al mismo tiempo una resolución decente, un teclado bien dimensionado y espacio de sobra para disipar los componentes internos, así como para albergar una batería de capacidad más que aceptable.El apartado del procesador y la memoria son de especial interés y una de las claves que definen la identidad de este portátil. Además, no se puede dejar de lado el software Power4Gear de ASUS, que al final juega un papel determinante también en este equipo. La CPU es un modelo ULV (Ultra Low Voltage) de Intel, con doble núcleo y 1,3 GHz de velocidad. El chipset Intel GS45 permite instalar cómodamente 4 Gbytes de RAM DDR3, con la ventaja de su más reducido consumo comparado con el de la memoria DDR2, y la presencia de un chip gráfico Intel GMA 4500HD capaz de “mover” contenidos multimedia con soltura. Para completar este repertorio tecnológico, el disco duro de 500 Gbytes supone una acertada elección con capacidad de sobra para no depender de sistemas de almacenamiento externos. De todos modos, lo que define realmente la identidad de este equipo es su versatilidad y la posibilidad de hacer que se comporte del modo más apropiado en cada situación. Si se quiere una menor autonomía a cambio de un rendimiento más elevado, el procesador Core 2 SU7300 se muestra mucho más solvente que un Atom N270, por ejemplo. A cambio, consume más energía, desde luego, pero aun así la autonomía permite usar el equipo durante unas cuatro horas exprimiéndolo al máximo de rendimiento. Si por el contrario se busca autonomía, usando Power4Gear se puede definir el valor máximo de rendimiento para la CPU, así como configurar otras variables determinantes para la reducción de consumo en el equipo. Por ejemplo, se puede definir que el máximo rendimiento del procesador sea del 50% del total. Si se procede de ese modo, el rendimiento está a un nivel similar al de un Atom, pero a cambio la autonomía se prolongará hasta 6, 8 o más horas dependiendo del uso que se le dé. Si sólo se usa un procesador de textos, con tiempos de inactividad intercalados, se puede usar el equipo hasta durante 10 horas. La batería de 84 Whr y un consumo inferior a los 10 Whr durante los momentos de menos actividad hacen posible el milagro. Si en un momento dado se necesita más rendimiento, se puede usar el botón directo en el teclado para cambiar a un modo de alta velocidad, e incluso "overclockear" el procesador hasta un 5% por encima de la frecuencia nominal. De este modo, se puede, literalmente, adaptar el portátil a cada necesidad y cambiar la configuración con una pulsación del acceso directo en el teclado. Es un poco como tener varios portátiles en uno, con rendimiento variable y con autonomías también variables. Ergonomía óptima El teclado de este equipo, de tipo “chiclet”, está realmente bien dimensionado, y al mismo tiempo deja espacio para que el touchpad no se quede reducido a la mínima expresión. Además el touchpad es multitáctil, y permite usar gestos para realizar acciones como desplazamientos horizontales, verticales o zoom. La carcasa no se calienta en exceso, y el acceso a los componentes internos es sencillo y permite instalar más memoria o cambiar el disco duro con facilidad. En realidad es poco realista ampliar más la memoria, pues con 4 Gbytes hay de sobra para instalar todo tipo de aplicaciones estándar en el ámbito de la ofimática o incluso la edición de fotos. En las pruebas se pudo trabajar de un modo correcto con Adobe Lightroom procesando imágenes procedentes de una cámara Canon EOS 7D en modo RAW, por ejemplo. No es tan ágil como un ordenador de sobremesa, pero permite abordar algunas tareas sencillas, convertir formatos o realizar el etiquetado y clasificación de las imágenes. Las conexiones abarcan las imprescindibles como USB, red Ethernet, lector de tarjetas SD y HDMI, aunque se echa de menos eSATA para conectar dispositivos de almacenamiento externos de alta velocidad. La webcam integrada en el marco, la entrada de micrófono y la de auriculares y la conexión VGA completan un repertorio correcto y versátil. Lo que sí no está integrado es el dispositivo óptico, aunque realmente no se echa de menos para nada en esta configuración. Existe la posibilidad de conectar una unidad externa mediante USB, aunque su uso, en condiciones normales, se limitará a posibles operaciones de instalación del sistema operativo.Frente a la competenciaEl rival “natural” de este portátil es el modelo Timeline de Acer. Hay otros, desde luego, pero estos dos ordenadores son los contendientes por antonomasia en el panorama actual de equipos ultraligeros. Las similitudes entre ambos son numerosas, con pantalla en ambos casos de 13,3 pulgadas, con un grosor reducido, teclado “chiclet” y procesador de bajo voltaje. Pero con el modelo UL30A, ASUS consigue una importante ventaja gracias al doble núcleo de su procesador y a la mayor autonomía de la batería con nada menos que 84 Whr.La pantalla LED, las conexiones y otros aspectos como el chipset son también similares en ambos equipos, aunque de nuevo el procesador supone una importante diferencia. Además, ASUS no se queda atrás en lo que a disco se refiere, con 500 Gbytes, o a memoria con 4 Gbytes DDR3. Además, el transformador es más compacto en el caso de ASUS, con un cable “fino” de conexión a la red en vez del más grueso y pesado del equipo de Acer.En esencia, el único núcleo del equipo de Acer supone una buena baza en el apartado del ahorro de energía, aunque sacrifica en demasía el rendimiento global. ASUS, por su parte, ha decidido usar un procesador más potente, aunque con la posibilidad de “overclockearlo” o también reducir su velocidad en caso de querer reducir el consumo al máximo. La batería de más de 80 Whr es todo un acierto que hace que el peso suba algo, pero a cambio, el tiempo de trabajo será tan prolongado como 8 horas o incluso más, y mínimo de unas 4 horas a un rendimiento máximo.La funcionalidad ExpressGate es otro valor añadido, que permite al equipo arrancar desde una partición especial donde está instalado un entorno de inicio Linux desde el cual reproducir contenidos multimedia, navegar en Internet, etcétera.Rendimientos y bateríaUna de las ventajas de este equipo es la de poder regular el consumo de energía aumentando o reduciendo la velocidad de la CPU. Ya en BIOS hay una opción para practicar un ligero overclocking de la CPU hasta un 5 % por encima del valor nominal, pero también se puede reducir el consumo mediante la aplicación Power4Gear de ASUS, de modo que el rendimiento se reduzca, pero aumente la autonomía. En esta pequeña tabla se referencian dos benchmarks y los resultados respectivos con el procesador al máximo de velocidad y en el modo de ahorro de energía. De este modo se puede ver cómo afecta ese ahorro de energía al comportamiento del sistema.Para hacerse una idea aproximada de la relación entre consumo y batería, para un valor de 10 Whr en el consumo medido, una batería como la de este equipo, con más de 80 Whr de capacidad, durará algo más de 8 horas. Con el consumo máximo de 22 W, la autonomía será de unas cuatro horas. Que no está nada mal, todo sea dicho.Consumo durante la ejecución de benchmarksCinebench, modo de máximo rendimiento: 21 - 22W, 3.057 puntos, 4 min 49 seg Cinebench, modo de ahorro de energía: 13 – 15 W, 1.691, 8 min 43 seg Kribibench, máximo rendimiento: 21 - 22 W, 0,6023 fps Kribibench ahorro energía: 14 – 15 W, 0,35 fpsResultado de la prueba de autonomíaBattery eater Pro: 6 horas 4 minutos en modo de ahorro de energía. Consumo en reposo: 10 – 12 WRendimiento multimediaEn este último apartado, hay que hacer notar que la presencia de una gráfica integrada Intel GMA4500MHD permite acelerar contenidos multimedia codificados como MPEG, H.264 o WMV. En las pruebas realizadas con el software Windows Media Player o Cyberlink PowerDVD, el uso de CPU de estas aplicaciones se mantuvo bajo durante la reproducción de algunas películas y archivos de test codificados en alta calidad. Pero por otro lado, la CPU de este equipo es modesta en cuanto a rendimiento y muy sensible a otras aplicaciones que estén ejecutándose. Así que habrá que tener cuidado con este punto y tratar de cerrar las aplicaciones en segundo plano que más recursos consuman antes de reproducir una película Blu-Ray o un archivo MPEG o WMV. La salida HDMI es la mejor solución para conectar el portátil a una pantalla de alta definición, junto con el audio.ConclusionesEl ASUS UL30A deja muy buenas sensaciones en nuestro laboratorio. ASUS ha tardado en encontrar la fórmula de la movilidad, pero con la gama UL (de UnLimited) consigue un producto bien acabado, con un precio al alcance de audiencias muy amplias. En resumen: autonomía, rendimiento, ergonomía y precio para un producto que recomendamos desde MuyComputer. Además, si quieres conseguirlo al mejor precio, en la Tienda MuyComputer lo encontrarás a 681 euros. ¿Qué más quieres?
15 comentarios2 shares
16/10/2009marenas
ASUS P7P55D Deluxe

ASUS P7P55D Deluxe

Con esta placa base, ASUS consigue ofrecer a los usuarios más exigentes toda su experiencia en aspectos como la optimización de la energía, el control de overclocking o las habilidades multimedia integradas en una placa base. Además, el repertorio de tecnologías propietarias que se han integrado en este modelo es sencillamente abrumador, ofreciendo un valor añadido difícilmente superable.Una placa base es un instrumento de precisión del cual depende la estabilidad y buen funcionamiento de todo el equipo, y especialmente en estos tiempos cuando los procesadores demandan una alimentación extremadamente estable, con un consumo de potencia de hasta 130 vatios nominales, y más aún si se practica overclocking. Además, ahora se trata de poner en manos de los usuarios todo el control sobre cada uno de los componentes y variables de rendimiento, frente a la estrategia de antaño en la que sólo los expertos podían modificar los parámetros de trabajo del sistema mediante la manipulación de interruptores en la propia placa base, con un riesgo elevado de dañar los componentes electrónicos integrados.ASUS, con esta placa base, aprovecha su puesta de largo en la plataforma Corei5/i7 con zócalo LGA1156 para ofrecer a los usuarios sus últimos avances en la dirección de ofrecer el máximo control sobre el equipo, pero con el mínimo riesgo para la integridad de los componentes. Para ello, ASUS combina un hardware de alta calidad con herramientas de software y hardware que permiten actuar sobre la velocidad del bus o los voltajes y la memoria.En el apartado del hardware, la construcción de la placa responde a las expectativas creadas por ASUS en sus modelos Core i7 donde ya puso un listón muy alto. Desde el diseño fanless con sistemas pasivos de disipación para el chipset y las fases de potencia, hasta la presencia de controles de hardware para encender y resetear la placa, borrar el contenido de la CMOS, iniciar el algoritmo MemOK! para la optimización de la memoria o conectar el periférico TurboV Remote mediante el cual se controla de forma manual y directamente a nivel de hardware el bus del sistema, así como la activación de los distintos perfiles de overclocking configurados con la herramienta de software Turbo-V.Por supuesto, desde la BIOS también se accede a todo un repertorio de opciones avanzadas para la optimización de los parámetros de funcionamiento del sistema, que posibilitan sacar el máximo partido a los procesadores Intel Corei5 y Core i7 “Lynnfield”. Su potencial de overclocking es elevado, y cuando menos con sólo aumentar unos megahertzios la velocidad del bus se puede conseguir un plus de rendimiento muy de agradecer y sin comprometer la estabilidad o la fiabilidad del hardware.El control de las fases de potencia también está bien conseguido, sin que en ningún momento se midieran temperaturas por encima de 46ºC alrededor de las fases de potencia, ni siquiera en los momentos de máximo rendimiento con overclocking activo. Con el control remoto TurboV Remote es pan comido aumentar la frecuencia del bus, o encender y apagar el equipo o activar perfiles predefinidos, y todo ello mediante hardware. La herramienta de software TurboV es mas completa, con opciones para modificar voltajes, o con un modo “auto” que en pocos minutos consigue calcular el punto óptimo de overclocking. En las pruebas se consiguió mediante este proceso un aumento de un 11% en el rendimiento del procesador Core i7 870.En esta placa también se introduce un chip de sonido compatible con la tecnología de sonido DTS, de modo que se puede activar en el panel de control del audio para recrear entornos multicanal sobre configuraciones de altavoces con dos o tres altavoces, además de conseguir parámetros de calidad equiparables a los de sistemas de audio de salón. Las conexiones son otro de sus puntos fuertes, con un número de puertos SATA suficientes para cualquier necesidad de almacenamiento con tecnología SATA de 3 Gbps, así como USB o PCI Express para la conexión de tarjetas de vídeo (hasta 3) compatibles con SLI o CrossFire de NVIDIA y ATI respectivamente. Lo único que se echa de menos es una o dos conexiones eSATA nativas en el panel trasero. Hay dos conexiones de red Ethernet y nada menos que 8 puertos USB 2.0, aunque a costa de sacrificar espacio para los eSATA. Hay un cable que permite instalara en el panel trasero una conexión eSATA pero no está alimentada de forma nativa como en algunos de los recientes modelo de MSI con chipset X58, por ejemplo. La tecnología ExpressGate de ASUS también está presente de forma nativa, y ofrece un entorno perfecto para disfrutar de contenidos multimedia como audio, vídeo e imágenes, o navegar en Internet sin entrar en el sistema operativos principal. De este modo siempre se puede acceder a Internet para conseguir controladores o resolver dudas en caso de problemas con el equipo.El conjunto deja pocas fisuras y pocas pegas se le pueden poner a esta placa aparte de no tener una conexión eSATA integrada de forma nativa en el panel trasero con alimentación integrada. No es una placa barata, desde luego, pero es más económica que sus equivalentes en el chipset X58 para zócalo LGA1366 y es muy fácil conseguir “amortizar” la inversión sin más que optimizar los parámetros de funcionamiento del procesador para conseguir un plus de rendimiento de forma casi inmediata usando las herramientas de overclocking de software y hardware. Un producto excelente que recomendamos.
0 comentarios0 shares
28/09/2009marenas
ATI Radeon HD 5870

ATI Radeon HD 5870

AMD llega a tiempo a su cita con Windows 7 y presenta su nueva generación de tarjetas gráficas. La serie 5xxx de tarjetas de vídeo debuta con dos modelos posicionados en la gama media-alta, basados en el mismo chip gráfico RV870. El modelo más avanzado es el bautizado como ATI Radeon HD 5870 con un precio menor de 400 dólares según las primeras especificaciones, mientras que el modelo ATI Radeon HD 5850 rondará los 300. Probamos lo último de ATi en nuestro laboratorio técnico.La verdad es que es una grata sorpresa ver cómo esta presentación se engloba en un marco de normalidad absoluta, frente a los lanzamientos de generaciones anteriores casi siempre rodeados de problemas, retrasos y más de un maquillaje de resultados en las pruebas de rendimiento para competir con NVIDIA o viceversa, NVIDIA compitiendo con AMD. En esta ocasión, ATI compite contra ella misma, pues NVIDIA aún no ha jugado sus cartas en esta partida donde las reglas del juego las marcarán DirectX 11 y GPGPU.Las claves de la serie 5xxxLos tres pilares sobre los que AMD sostiene a esta nueva generación gráfica son DirectX 11, la tecnología Stream para aprovechar el paralelismo de la arquitectura del chip RV870 en tareas de propósito general y no sólo los juegos, y en la tecnología EyeFinity, que permite conectar hasta seis pantallas de 2.560 x 1.600 puntos para configurar un sistema de super-alta resolución tanto para juegos como para escenarios de productividad.Se necesita una tarjeta con seis conexiones DisplayPort para ello, pero se puede construir, existe y en MuyComputer ya la hemos visto en acción con juegos como H.A.W.X. o Colin McRae Dirt 2, con un resultado realmente espectacular y sin que el frame rate se hubiese visto demasiado perjudicado. Esa tarjeta es la Radeon HD 5870 EyeFinity6 Edition, y apostamos a que tendrá una gran aceptación en sectores verticales para la preparación de demostraciones en el ámbito de los videojuegos, del ocio digital y también en escenarios de productividad donde se necesiten controlar múltiples pantallas simultáneamente. Con Windows 7 se pueden asignar contenidos específicos a cada monitor, o agruparlos con una enorme flexibilidad.DirectX 11, por su parte, no es una extrema novedad en sí misma. Se trata de una evolución de DirectX 10 y DirectX 10.1, con novedades sumamente interesantes, eso sí. Teselación, DirectCompute 11, ShaderModel 5.0, compresión de texturas mejorada, o multithreading son algunos de los conceptos que se manejarán a discreción durante los años venideros en los que Windows 7 ocupe su trono como sistema operativo para PC y portátiles. En realidad no son conceptos nuevos, como la teselación, que ya se concibe con DirectX 8.1, por ejemplo, pero ahora el hardware permite implementarlos sin que suponga un coste excesivo en términos de rendimiento.DirectCompute permite al sistema emplear tanto la CPU como la GPU para realizar cálculos complejos, dependiendo de qué componente lo haga mejor. Aplicaciones como las relacionadas con las propiedades físicas de los objetos, cálculos para Ray Tracing o inteligencia artificial son sólo algunas de las posibles dentro de un escenario muy atractivo sobre el papel a falta de su aplicación en el mundo real, por supuesto. Ejemplos ya visibles se encuentran en técnicas de mejora de la imagen con Order Independent Transparency, o la recreación de efectos como la profundidad de campo. Con DirectCompute se consigue procesar cada píxel de un modo preciso y eficiente sin interferir en los buffers alfa. De este modo se evitan artefactos derivados de las técnicas tradicionales donde se trabajaba a nivel de máscaras en vez de procesar los píxeles directamente. Con DirectX 11 también se consigue mejorar el tratamiento de las sombras, logrando efectos mucho más realistas que antes, sobre todo en los bordes de las mismas, con un acabado mucho más “difuminado” como corresponde a sombras que inciden en superficies irregulares.La teselación, por su parte, consigue aumentar el nivel de detalle de las geometrías sin necesidad de aumentar la complejidad de los modelos. Se generan triángulos de manera automática para teselar las geometrías implementadas en el motor de los juegos o las aplicaciones, sin que suponga un coste elevado en el rendimiento. El trabajo en varios hilos hace posible que distintas tareas relacionadas con las operaciones gráficas se realicen en paralelo. Asi,tareas como cargar una textura y calcular un shader se podrán realizar de manera concurrente sin que una tenga que esperar a que finalice la otra.Juegos como DiRT 2 o Alien VS Predator incluirán estas nuevas tecnologías gracias a la adaptación de sus motores gráficos, con resultados notables en aspectos como el detalle de los personajes y los escenarios o el post procesado mediante aplicación de filtros como el de profundidad de campo o el difuminado de movimiento. Otra característica de DirectX 11 es la posibilidad de emular por software estas nuevas características mediante la tecnología WARP, aunque a costa de reducir el rendimiento en varios órdenes de maginitud dependiendo de la solvencia del hardware.Stream y estándares abiertosBajo el paraguas de “Stream” AMD/ATI engloba las habilidades de su hardware gráfico para acelerar tareas que se beneficien del paralelismo de la arquitectura de sus chips. Con la familia 5xxx se avanza un paso más allá gracias a la compatibilidad con estándares como OpenCL y DirectCompute.Open CL u Open Computing Language es la alternativa a las iniciativas propietarias de NVIDIA y AMD. CUDA o Compute Unified Device Architecture es la propuesta de NVIDIA para sus tarjetas gráficas y ha conseguido un nivel de penetración notable en círculos académicos y en el doméstico mercede a la implementación de plugins in software relacionado con el procesamiento multimedia sobre todo. AMD, con CTM o Close To Metal, ha tenido menos proyección debido a la ausencia de un API de programacion sencillo.De todos modos, OpenCL, propuesto por Apple como vía para el aprovechamiento del paralelismo de los chips gráficos en aplicaciones de propóstito general, se ha convertido en una propuesta abierta de la mano de Kronos Group, del mismo modo que sucede con OpenGL como lenguaje para gráficos. Y parece que esta es la dirección buena, a falta de ver cómo evoluciona Larrabee de Intel, que en teoría se podrá programar usando las herramientas existentes para las aplicaciones X86.De momento, los juegos son los primeros beneficiados de esta ampliación de las atribuciones de los chips gráficos a través del cálculo del a física o la inteligencia artificial o la recreación de filtros visuales como los mencionados anteriormente: profundidad de campo o difuminado de movimiento (motion blur) entre otros. La ventaja es la de emplear algoritmos para operar sobre los píxeles, de modo que la flexibilidad es mucho menor que en el trabajo con máscaras, transparencias o texturas.También se benefician de OpenCL y DirectCompute aplicaciones multimedia como muchas de las presentes en el catálogo de Cyberlink, por ejemplo. PowerDirector o MediaShow se beneficiarán en próximas versiones de la arquitectura de los chips DirectX 11 con mucho más éxito que con generaciones anteriores. No hay más que recordar que la potencia de cálculo teórica de estas tarjetas de ATI alcanzan más de 2 TFLOPS.El cuarto pilar: la eficiencia energéticaUn cuarto factor diferencial de estas tarjetas es la eficiencia energética. En las primeras pruebas, el consumo total raramente superó los 200 vatios al tiempo que el rendimiento obtenido era muy superior al de tarjetas de generaciones anteriores, con un consumo más elevado. Más rendimiento y menor consumo son elementos diferenciales de esta nueva generación gráfica. Además, este acercamiento “sensato” permite a AMD / ATI anunciar el lanzamiento de una versión X2 de esta nueva familia dentro de pocos meses, antes de fin de año.Esto significa que la migración a 40 nm ha sido fluida y exenta de dificultades. La ventaja de AMD radica en factores como la presencia de tecnologías muy avanzadas en su generación anterior: DirectX 10.1 estaba contemplada en la familia 4xxx, y si bien no fue de una utilidad notable en su tiempo, sí que lo es ahora, pues DirectX 11 es una evolución de DirectX 10.1. Además, la memoria GDDR5 está contemplada por ATI también en la generación anterior, lo cual implica que a la hora de diseñar el subsistema de memoria sólo ha tenido que depurar y optimizr en vez de implementar un controlador de memoria desde cero.¿Y NVIDIA?De momento NVIDIA parece estar topándose con dos dificultades: por un lado su aproximación monolítica para el chip, donde se diseña para ir de arriba abajo, complica los procesos de fabricación al trabajar con chips muy “grandes”. AMD trabaja con chips no demasiado ambiciosos, pero fáciles de instalar en configuraciones multichip gracias a una mejor disipación y una fabricación más fácil y con mejores “yields”. Además, NVIDIA pasa de DirectX 10 a DirectX 11, por lo que tiene que contemplar la implementación de funcionalidades extra en su arquitectura. Por no hablar del controlador de memoria, que debería pasar de GDDR3 a GDDR5. Una transición que no es trivial a la vista de las diferencias en las temporizaciones entre ambos tipos de memoria.El apartado de la doble precisión tampoco es trivial en una generación donde habrá que trabajar con simple y doble de manera indistinta sin “letra pequeña”. AMD parece haber integrado este punto sin más problemas que la reducción en la potencia de cálculo desde algo más de 2 TFLOPS a menos de 600 GFLOPS.De momento tenemos entre manos la primera tarjeta DirectX 11 de la mano de AMD/ATI y MuyComputer. En nuestras pruebas comparamos la tarjeta con la GeForce GTX 295 de NVIDIA y con una Radeon HD 4890 en test sintéticos y juegos “reales”. NVIDIA GeForce GTX 295 ATI Radeon HD 4890 ATI Radeon HD 5850 ATI Radeon HD 5870 Transistores 1.400 millones 959 millones 2.150 millones 2.150 millones Procesadores Stream 240 x 2 800 1.440 1.600 Velocidad de reloj 576 MHz / 1.242 MHz procesadores stream 850 (and higher) 725 MHz 850 MHz Velocidad de memoria 2.000 MHz 3900 MHz (effective) 4.000 MHz 4.800 MHz Memoria 896 x 2 MB GDDR3 1024MB GDDR5 1.024 MB GDDR5 1.024 MB GDDR5 Interfaz de memoria 448 bits x 2 256 bits 512 bits 512 bits Ancho de banda 2 x 112 GB/s 125 GB/s 128 GB/s 153,6 GB/s Potencia de procesamiento pura 1,79 TFLOP 1,360 TFLOP 2,09 TFLOP 2.72 TFLOP Unidades de texturizado 80 x 2 40 72 80 Unidades de renderizado 28 x 2 16 32 32 Tecnología de fabricación 55nm 55nm 40 nm 40 nm Potencia consumida de pico 290 W 190W 170 W 188 W Potencia en reposo na 60W 27 AV 27 WConfiguración del equipo de pruebas - Placa Base Asus P7P55D Deluxe. - Procesador Intel Core i7870 Socket LGA 1156. - 2 x 2 Gbytes memoria Kingston HyperX DDR3 16000. - Fuente Enermax Revolution 1.025W. - Monitor HP LP3065, 30’’, 2.560 x 1.600 píxeles. - Controladores: AMD ATI 8.66 RC6 Cypress. - Controladores: NVIDIA 190.62. 3dMark Vantage Performance 3DMArk Vantage Extreme 1.920 x 1.200 Unigine benchmark dx10, 2.048 x 1.536 High Q, 4x fsaa, 16x af Unigine benchmark dx9, 2.048 x 1.536 High Q, 4x fsaa, 16x af Unigine benchmark dx10, 2.048 x 1.536 High Quality, 8x fsaa, 16x af H.A.W.X. 2.560 x 1.600 8x fsaa, HQ ATI Radeon HD 5870 16383 / GPU 15587, CPU 19384 8076 / GPU 7832, CPU 19680 43,3 fps, 1092 score 44,5 fps 1120 score 40,7 fps 1024 score 117 fps (max 290) Potencia total 220 W 200 W 216 W Temperatura 58 grados 64 grados 69 grados ATI Radeon HD 4890 11568 /GPU 10200, CPU 19366 4720 / GPU 4540, CPU 19351 29,5 fps 743 score 28,1 fps 708 score 83 fps (max 302 fps) Potencia total 220 W 210 W 215 W 226 W Temperatura 63 grados 62 grados 64 grados 65 grados NVIDIA GeForce GTX 295 21299 / GPU 18289, CPU 42064 9261 / GPU 8894, CPU 43114 20,4 fps 513 Score 136 fps (máx 350) Potencia total 326 W 220 W 350 W Temperatura 81 grados 62 grados 79 gradosLas pruebas de una tarjeta como la presentada por AMD pasan por emplear una configuración ambiciosa. De hecho, introducimos en MuyComputer las pruebas con un monitor de 30 pulgadas para aprovechar al máximo las posibilidades de esta tecnología que puede mover títulos DrectX 9 y DirectX 10 a una velocidad endiablada limitada por el procesador incluso a resoluciones por encima de 1.600 x 1.200 puntos. Sólo DirectX 11 podrá poner al límite a estas tarjetas gráficas cuando aparezcan los títulos esperados de cara a los meses venideros, con motores actualizados para aprovechar DirectX 11.Durante las pruebas hemos observado que la temperatura del procesador gráfico, medida en la parte visible del PCB, no ha superado los 65 grados. Sin duda una noticia excelente para cualquiera que se preocupe por el consumo y la estabilidad del equipo. No es complicado intuir que los modelos de gamas medias y mainstream serán excelentes propuestas para equipos multimedia, y que incluso las soluciones “fanless” abundarán en el mercado. Por otro lado, las tarjetas “X2” tienen margen para ofrecer un rendimiento muy elevado.Además, la temperatura baja rápidamente tan pronto como cesa la actividad en la tarjeta gráfica, lo cual corrobora el buen hacer en la eficiencia energética y el reducido consumo anunciado cuando la tarjeta no está acelerando ningún juego ni aplicación.En esta ocasión, además hemos tenido el programa FRAPS constantemente en funcionamiento monitorizando la tasa de frames obtenida a partir de la tarjeta HD 5870. Incluso con títulos de reciente factura como Batman Arkham Ashylum la tasa de frames con la configuración máxima y 2.560 x 1.600 píxeles se mantuvo por encima de los 60 fps. Otros títulos como Resident Evil 5 mostraron más de 60 fps de media en las configuraciones más exigentes y a máxima resolución y en pruebas sintéticas como 3D Mark Vantage incluso la prueba “Extreme” se pudo evaluar con cierta soltura, aunque con tasas de frames por debajo de un nivel de jugabilidad adecuado, eso sí.En cualquier caso, se trata de un resultado notable para una tarjeta con alimentación de 2 x 6. Juegos como FarCry 2, con la configuración Ultra, sí se resienten algo a 2.560 x 1.600 puntos con FSAA de 8x, pero tan pronto como se baja la resolución, los resultados mejoran notablemente incluso a 1.600 x 1.200, una cifra excepcional para el 90 por ciento de los usuarios con monitores de hasta 22 pulgadas.El caso de Crysis Warhead es algo distinto, con una tasa de frames que se mantiene prácticamente constante dentro de una horquilla estrecha de variaciones, lo cual hace sospechar que es la CPU la que limita a la tarjeta gráfica. Posiblemente el motor de Crysis se beneficie enormemente de DirectCompute y Multithreading en el sistema gráfico para eliminar el cuello de botella actual.En cuanto a la activación de las mejoras de imagen, la norma en esta ocasión ha sido utilizar un suavizado de imagen a pantalla completa de 8x en vez de los habituales 4x, y 16x para el filtrado anisotrópico allí donde se pueda configurar este parámetro. La particularidad en esta tarjeta es que el filtrado anisotrópico es perfecto, independientemente del ángulo. Y además el impacto en el rendimiento es casi inapreciable incluso pasando de un valor 4x a 8x para el FSAA (Full Screen Antialiasing). Al menos en algunos títulos, pues en otros como FarCry2 sí se aprecia una notable diferencia al pasar de 8x (31,6 fps) a desactivar FSAA (66,6 fps).La comparación con el modelo “estrella” de la generación anterior de AMD / ATI, el Radeon HD 4890, no deja lugar a dudas acerca de la solvencia de esta nueva familia 5xxx. El modelo HD 5870 no es el más potente que se puede fabricar con esta tecnología, ni mucho menos, pero aún así supera con claridad a la 4890.Si se compara con el modelo GTX 295 de NVIDIA, la situación depende de si el benchmark o el juego aprovechan SLI al tratarse de una tarjeta gráfica compuesta de dos GeForce GTX 285 combinadas. Donde sí se aprovecha, el rendimiento es mayor que el modelo HD 5870, aunque en resoluciones extremas las diferencias se reducen como se aprecia en los resultados con 3DMark Vantage con el modo Extremo activado. De todos modos, el consumo y la temperatura de la tarjeta GTX 295 se disparan hasta límites muy superiores. En pruebas como Resident Evil 5, aun con un consumo de 350 vatios, el rendimiento está por debajo del obtenido por la Radeon HD 5870, lo cual no deja de ser sorprendente. En última instancia se trata de una tarjeta de gama extrema sobre pruebas donde no se contempla aún DirectX 11.En FarCry 2, el modelo GTX 295 no completó la prueba a 2.536 x 1.600 puntos, pero en las otras dos pruebas, sí estuvo algo por encima del modelo de AMD/ATI, aunque no con la contundencia que podría esperarse a partir de una configuración de doble tarjeta gráfica.Al final, la balanza se inclina a día de hoy hacia la nueva propuesta de AMD / ATI tanto por rendimiento como por eficiencia energética.MultimediaAMD ha continuado mejorando las posibilidades para el ocio digital con la serie 5xxx de tarjetas gráficas. Las mejoras pasan por la posibilidad de descodificar simultáneamente dos secuencias de alta definición, así como trabajar con todo tipo de formatos de audio multicanal a través de HDMI 1.3. El códec de audio está integrado en la propia tarjeta y ahora se pueden configurar características como el contraste dinámico en pantalla. En la tarjeta de referencia se pueden encontrar conexiones DVI (dos) así como DisplayPort y HDMI. En el modelo EyeFinity hay seis salidas DisplayPort capaces de “alimentar” seis monitores de alta resolución hasta 2.560 x 1.600 puntos. La resolución “virtual” de esta pantalla es de 3 x 2.560 puntos de ancho y 2 x 1.600 puntos de alto ( 7.680 x 3.200 píxeles nada menos). Y todos estos píxeles, procesados por una única tarjeta y con potencial para jugar incluso como se pudo ver y experimentar en la presentación de la tarjeta que tuvo lugar en Londres.De momento estamos recopilando las herramientas de software compatibles con ATI Stream y con CUDA de NVIDIA para poder realizar un estudio comparativo de igual a igual.En conjunto, AMD parece haber mantenido el espíritu de ATI intacto en lo que a innovación y tiempos se refiere. Aún más, ha conseguido que los plazos se cumplan sin sacrificar la calidad del producto final.El rendimiento de la familia 5xxx promete evolucionar con rapidez y ofrecer todo lo necesario para sacar el máximo partido a los títulos de ahora y los de dentro de unos meses cuando empiecen a ver sus frutos las adaptaciones de los motores gráficos a tecnologías como Tesselation o Multithreading.El punto débil de esta ATI Radeon HD 5870 analizada es la compatibilidad con aceleración de física en los juegos. PhysX de NVIDIA está integrada en un número creciente de títulos, mientras que AMD aún está esperando a que se popularicen APIS abiertas que aprovechen DirectCompute u OpenCL.
0 comentarios0 shares
25/09/2009marenas
Panasonic Lumix DMC-GF1

Panasonic Lumix DMC-GF1

MuyComputer ha tenido la oportunidad de tomar contacto con la esperada cámara DMC-GF1 de la familia Lumix de Panasonic con tecnología de lentes intercambiables y formato micro cuatro tercios. Estas son nuestras primeras impresiones.Tras la comercialización del modelo EP-1 de Olympus dentro de su gama PEN, le toca el turno a Panasonic para mover ficha en un segmento donde ya cuenta con dos modelos, G1 y GH1, este último con la posibilidad de grabar vídeo HD en formato AVCHD. De todos modos, se trata de propuestas que no aprovechan la ventaja estratégica del formato micro cuatro tercios a la hora de ahorrar tamaño en la construcción del cuerpo de la cámara.El modelo GF-1 está llamado a subsanar esta circunstancia gracias a su menor tamaño que en cierto modo se asemeja bastante al del modelo LX3 en cuanto a líneas, pero con mayor ancho, alto y grosor. De todos modos, mantiene su cualidad de compacta, sobre todo cuando se combina con el objetivo de 20 mm (40 mm equivalente en 35 mm) y abertura de 1.7, todo un récord de luminosidad para un objetivo muy compacto y bien hecho. El enfoque manual es progresivo y suave, y el automático rápido y silencioso. La grabación de vídeo también está sumamente lograda, con capacidad para grabar hasta 1.280 x 720 en formato AVCHD Lite con un algoritmo de autofoco en grabación de vídeo muy rápido y preciso.Nos ha gustado en esta toma de contacto el tacto del grip, que aunque sigue siendo mínimo, proporciona un agarre correcto y mejor que el del modelo de Olympus (PEN EP-1). El enfoque manual está muy bien implementado, de modo que sólo accionando el anillo de enfoque en el objetivo se abre el asistente con una zona ampliada x5 o x10 para conseguir un ajuste fino. Además, en una pantalla auxiliar se puede ver exactamente la zona de la escena sobre la que se realiza el enfoque asistido con zoom, de modo que no se pierde el encuadre.El flash, a pesar de su elaborado mecanismo, es robusto y está bastante elevado respecto al cuerpo para minimizar el efecto de ojos rojos. Y, al menos, está presente.La calidad de imagen, en una primera y cualitativa aproximación, es elevada. Cuando menos, más elevada que la obtenida por una cámara compacta, sobre todo cuando se necesita recurrir a ISOS altas. En una cámara donde la estabilización no está presente en el cuerpo se depende de los objetivos, pero si no están estabilizados tampoco es preciso recurrir al aumento de la sensibilidad ISO, de modo que cuanto mayor sea la calidad a sensibilidades elevadas, mayores velocidades de obturación se podrán usar incluso con poca luz.Otro elemento que ha resultado de nuestro agrado es el objetivo macro (90 mm equivalente a 35 mm) con abertura F2.8. Todo un todoterreno para los aficionados a la foto macro o a los retratos.El acabado es de elevada factura, tanto en calidad como en robustez, y mantiene la compatibilidad con todos los objetivos micro cuatro tercios, así como con los cuatro tercios si se usa un adaptador, o como con los de montura Leica M para los nostálgicos.Los precios estarán a la par con los del modelo PEN de Olympus, o lo que es lo mismo, se prevé una competencia muy fuerte entre los dos modelos compactos micro cuatro tercios con un tamaño compacto. De todos modos, salvo por la presencia de un estabilizador de imagen en el cuerpo de la PEN, así como por la estética tan personal de esta propuesta de Olympus, la balanza tecnológica se inclina a favor del modelo de Panasonic.
0 comentarios0 shares
23/09/2009marenas
Conceptronic HD Docking Station

Conceptronic HD Docking Station

El almacenamiento magnético supera en varios órdenes de magnitud al óptico tanto en precio por giga como en velocidad de transferencia. Pero no es tan fácil de manipular como los discos DVD o CD.La cantidad de archivos que se manipulan de forma habitual con un ordenador se ha multiplicado desde la proliferación de las cámaras digitales, las de vídeo o las conexiones de banda ancha. El tamaño de los archivos también ha crecido al mismo ritmo que la calidad de las imágenes o las películas, que han pasado de resoluciones estándar a la alta resolución. Los discos duros externos son una solución parcial para esta demanda creciente de espacio, pero existen otras soluciones más flexibles y económicas a medio plazo.Los fabricantes de discos duros están diversificando sus gamas hasta el punto de crear productos específicos para el almacenamiento de grandes cantidades de datos. Seagate con la gama Barracuda LP con capacidades de 1 Tbyte, 1,5 Tbyte y 2 Tbytes y velocidad de rotación de 5.900 rpm, consigue un producto silencioso gracias a esta baja velocidad de giro, con menos rendimiento que los modelos de 7.200 rpm pero con un precio que se sitúa en torno a 60 € para el modelo de 1 Tbyte. Un precio casi imposible, para un disco que es complicado encontrar en productos externos USB o SATA.Por otro lado, si las necesidades de almacenamiento son elevadas será preciso comprar varios discos externos, cada uno con su fuente de alimentación (en el caso de los de 3,5 pulgadas), sin la posibilidad de controlar el fabricante ni el modelo de unidad instalada.La alternativa pasa por comprar discos duros y conectarlos al equipo mediante las conexiones SATA, pero con el inconveniente de tener que instalar el disco en las bahías, sin libertad para conectarlos y desconectarlos a discreción, y con el problema añadido de la manipulación. Por suerte, los fabricantes ya han pensado en esta complicación y han desarrollado soluciones de conectividad externa como esta de Conceptronic, que permite utilizar con total seguridad discos duros SATA convencionales tanto de 3,5 pulgadas como de 2,5 pulgadas para conectarlos a un ordenador mediante USB 2.0 o mediante tecnología eSATA.Siempre será preferible emplear la conexión eSATA a la USB, aunque no está tan generalizada como esta última. La velocidad de transferencia a través de eSATA es prácticamente la máxima que proporciones el disco, mientras que la USB está limitada por la interfaz.El diseño de esta base de Conceptronic para discos duros SATA es correcto, con materiales plásticos en su mayor parte, pero suficientes para proporcionar a los discos un soporte estable y fiable. Es posible realizar extracciones “en caliente”, aunque siempre se recomienda esperar a que no esté conectado, o como mínimo que no esté en mitad de una tarea de transferencia de archivos. Emplea una fuente de alimentación externa e incluye un cable eSATA y uno USB.Este tipo de soluciones externas para conectar discos duros tiene una ventaja inmediata sobre los discos duros convencionales: es más versátil. Se pueden conectar tanto discos de 3,5 pulgadas como de 2,5 pulgadas y se puede elegir el modelo de disco que se desee de acuerdo con nuestras preferencias.Por otro lado, si se trabaja con grandes cantidades de datos, esta solución es más económica: se invierten menos de 40 euros en la base, pero luego sólo se necesita adquirir discos duros “sueltos” con un precio más económico hasta el extremo de los nuevos modelos Seagate de 5.900 rpm con 60 euros por cada Tbyte de capacidad.En cuanto a rendimiento, cuenta con la conexión USB de presencia casi obligada para maximizar la compatibilidad, pero también con otra de tipo eSATA para maximizar el rendimiento. Lo mejor de ambos mundos en una solución externa.Como desventaja, está la necesidad de almacenar los discos duros con más cuidado, al tratarse de unidades “desnudas” con la circuitería expuesta. Este problema se soluciona mediante un sistema de archivo y almacenamiento de las unidades riguroso, que demanda algo más de atención que los discos USB externos tradicionales.
0 comentarios0 shares
17/09/2009marenas
Intel Core i5 750 y Core i7 870

Intel Core i5 750 y Core i7 870

Probamos los nuevos procesadores de Intel diseñados para máquinas de sobremesa y basados en la arquitectura Nehalem. Estos procesadores vienen acompañados del nuevo chipset Intel P55 Express y ofrecen un rendimiento óptimo incluso con las tareas más exigentes. Nuestro laboratorio técnico analiza la última propuesta del líder mundial en microprocesadores.   La arquitectura Nehalem, que suponía una mejora notable sobre lo visto anteriormente, debutó el año pasado con un rotundo éxito en lo que a refinamiento, eficacia y rendimiento se refería. Su encarnación fue el procesador Intel Core i7, que con la serie 9xx de procesadores (i7 965, 940, 920 y posteriormente 975 y 950 también) se enfocó por precio y especificaciones a un público entusiasta, gamers o profesionales que necesitaban un rendimiento extremo a medio camino entre el mercado doméstico y el profesional.   Los precios eran elevados y también el de las placas base específicas para este tipo de procesadores, de modo que no llegaron a una audiencia extensa de usuarios. Tampoco lo necesitaba realmente, pues los procesadores AMD Phenom X4 y Phenom II X4 no evolucionaron demasiado en cuestión de rendimiento o arquitectura, y la familia Core 2 Duo y Core 2 Quad seguía siendo competitiva tanto por rendimiento como por precio.        La democratización de Nehalem   La familia Core i7 9xx presentaba algunas características que no suponían realmente un incremento significativo del rendimiento en condiciones normales, pero sí de la complejidad del procesador y de las placas. El zócalo LGA 1366, con un incremento espectacular del número de pines debido a la integración de un controlador de memoria de triple canal o la tecnología QPI, supone un reto para  cualquier fabricante, y además su utilidad se manifiesta con más claridad en los sistemas con varios procesadores.   Así pues, tenía poco sentido integrar estas características en los procesadores “convencionales”. Así que Intel ha suprimido QPI para dar paso a una tecnología de intercomunicación directa entre la CPU y el controlador de los periféricos, anulando la disposición tradicional de los chipsets en forma de “north bridge” y “south bridge”. Además, la memoria es ahora de doble canal en vez de tres. Con todo, el número de pines se redujo a 1156, y la estructura del chipset se simplificó en gran medida respecto al X58.   El nuevo conjunto de chips, o más bien el nuevo chip encargado  de controlar los recursos en la placa, es el Intel P55 Express, y en el momento del lanzamiento ya habrá disponibilidad de placas por parte de los principales fabricantes. MSI, GIGABYTE o ASUS tienen modelos confirmados, así como la propia Intel con el modelo Intel Desktop Boards DP55KG como tope de gama. En los próximos días publicaremos análisis detallados de estos productos.    La propuesta de Intel con su chipset P55 Express.     Memoria de doble canal   La elección de la memoria para los nuevos sistemas no debería suponer una ruptura respecto a la plataforma anterior. Eso sí, los nuevos procesadores Core i5 y Core i7 integran un controlador de memoria de doble canal, de modo que la instalación de los módulos preferida será de dos en dos en vez de en conjuntos de tres. Sigue siendo memoria DDR3, y la precaución de no emplear módulos con un voltaje por encima de 1,65 V se mantiene vigente.   No hay problema en instalar dos módulos de los tres que componen un kit para las placas con chipset X58, aunque sólo si ya se tuviese un kit de ese tipo, o de otro modo será complicado hacer uso de todos los módulos de memoria RAM. Pasar de triple a doble canal sólo tendrá un impacto negativo en pruebas de rendimiento sintéticas, pero no demasiado en las pruebas con aplicaciones reales, por no decir nada.            Los nuevos procesadores   La arquitectura de los procesadores Intel Core i5 y Core i7 con zócalo 1156LGA presentan la misma arquitectura que los Core i7 con zócalo 1366LGA. Nehalem aún tiene que durar y evolucionar, pero no de manera drástica. En esta nueva tanda de procesadores, por ejemplo, se ha trabajado en aras de un mayor aprovechamiento de la potencia y una mayor eficiencia.   El TDP se ha reducido hasta unos cómodos 95 W y mejorado el comportamiento dinámico de los núcleos, que ahora pueden alcanzar nada menos que hasta 3,6 GHz cuando las aplicaciones sólo hacen uso de un número limitado de núcleos entre uno y tres. Además, ha cambiado el tamaño de los procesadores y por ello es necesario instalarlos en placas con el zócalo compatible. Los ventiladores en principio también cambian, pero se pueden adaptar los compatibles con el antiguo zócalo mediante los accesorios correspondientes si el fabricante los pone a disposición de los usuarios.           El target de estos nuevos procesadores es esencialmente distinto al de los primeros Intel Core i7: tanto la placa como los procesadores pueden tener precios razonables al presentar una complejidad menor en el caso de las placas, y al tratarse de una arquitectura bastante consolidada en el caso de las CPU. Los Core i5 750 serán más económicos, para seguir con los Core i7 860 y Core i7 870.   El chipset P55 Express también tiene sus propias limitaciones, como es el máximo de 2 PCI-Express en una configuración 2 x 8. De este modo, el gaming extremo se queda fuera de estas configuraciones, aunque sí es compatible con CrossFire de AMD y SLI de NVIDIA. Además, las comparaciones inmediatas no serán con los Core i7 de la serie 9xx, sino con los procesadores Core 2 Duo y Core 2 Quad con microarquitectura Core.         Core i5 750 (Lynnfield) Core i7 860 (Lynnfield) Core i7 870 (Lynnfield) Microarquitectura Nehalem Nehalem Nehalem Precio (por cada 1.000 unidades) 199 dólares 285 dólares 555 dólares Velocidad 2,66 / hasta 3,2 GHz 2,8 / hasta 3,46 GHz 2,93 / hasta 3,6 GHz Memoria caché  L1 / L2 / L3 4 x 32 KB / 2 x 256 KB / 8 MB Intel Smart Caché 4 x 32 KB / 2 x 256 KB / 8 MB Intel Smart Caché 4 x 32 KB / 2 x 256 KB / 8 MB Intel Smart Caché Número de transistores 774 millones 774 millones 774 millones Superficie 296 mm2 296 mm2 296 mm2 Controlador de memoria Doble canal DDR3 / 1.333 MHz Doble canal DDR3 / 1.333 MHz Doble canal DDR3 / 1.333 MHz Zócalo 1156 LGA 1156 LGA 1156 LGA Núcleos / Hyper-Threading 4 / No 4 / Sí (8 núcleos) 4 / Sí (8 núcleos)   Pruebas y conclusiones > 
3 comentarios0 shares
08/09/2009marenas
Nokia N97, comunicador total

Nokia N97, comunicador total

La expectación causada por los terminales de Nokia está plenamente justificada a la vista de los numerosos móviles que presenta cada año y las elevadas dosis de innovación que acompañan a los lanzamientos más sonados. Nokia N97 es uno de estos terminales que están llamados sobre el papel a ser las estrellas de la temporada.  A pesar de que su presentación en sociedad ya tuvo lugar al comienzo del verano, el Nokia N97 sigue protagonizado campañas publicitarias donde el protagonista absoluto es la pantalla de inicio con los widgets repletos de contenidos y el estado de redes sociales. Facebook, páginas de periódicos on-line o la información sobre los contactos recientes y favoritos son algunos de los contenidos que confieren un atractivo especial a este terminal que Nokia pretende acercar más a la categoría de mini ordenador que de teléfono móvil.   En octubre está previsto que se comercialice el recién presentado N97 mini, pero hasta ese momento, el N97 puede calificarse como el tope de gama de los terminales de Nokia.        Ocio o negocio   El primer momento que se tiene en las manos un N97 destaca la grandiosidad de su pantalla. Con 3,5 pulgadas hay pocos terminales que tengan tanta pantalla. El Toshiba TG-01 con 4’’ es aún mayor, pero no es frecuente. Y ese tamaño condiciona al del resto del equipo, que no queda más remedio que calificar como “grande”.          De todos modos, tan pronto como se despliega el teclado bajo la pantalla este terminal pasa a parecerse más a un ordenador pequeñito. La mera acción de hablar sin el manos libres se antoja casi antinatural a la vista de la desproporción entre su tamaño y el del pabellón auditivo, pero tareas donde tenga parte implicada el teclado, como navegar en Internet, enviar correos o escribir textos y notas se desarrollan con total soltura y rapidez.    En el fondo, por mucho que se intente llevar este terminal al segmento residencial, se trata de un producto eminentemente profesional, que efectivamente puede sustituir a un netbook en tareas relacionadas con la mensajería.   Estar andando por la calle y poder actualizar el correo y responder mensajes, anotar ideas o redactar documentos urgentes es todo un lujo que al final permite ahorrar tiempo en las gestiones del día a día, y como tal hay que tomarse a este terminal: como un miniordenador con conectividad 3G con el que además puedes atender llamadas de voz. Y el tratamiento del N97 se parecerá más al de un mini ordenador que al de un móvil convencional.    La batería dura poco… o mucho   Según se mire. El problema es el siguiente: Nokia ha hecho tan bien su trabajo de hacer que el N97 se parezca a un ordenador, que tan pronto como cae en manos de un “power user” se empieza a usar para trabajar con él. La combinación de pantalla táctil y teclado es fantástica, y la interfaz con iconos grandes y fuentes de texto también grandes facilita ese uso híbrido. Se echa de menos un modo de pantalla con fuentes más pequeñas aun a costa de perder algo de tactilidad, sobre todo para los fanáticos de tenerlo todo a la vista, aunque se vea pequeño, pero al final, las aplicaciones se manejan de un modo realmente ágil.      Los mapas, el GPS (algo lento en ocasiones a la hora de “pillar” satélites), el correo o el navegador de Internet hacen bien su trabajo como aplicaciones para productividad y la idea de tener el widget del correo en la pantalla principal siempre listo para mostrar los últimos mensajes es acertada. Las páginas con noticias en la misma pantalla principal, así como los contactos facilitan mucho el acceso a los contenidos más relevantes para cada actividad profesional y la sensación que se tiene con el N97 es la de poseer una herramienta de trabajo que mejora la resolución de tareas cotidianas sin tener que cargar con un portátil.   Pero precisamente ese buen hacer de Nokia a la hora de diseñar una herramienta de trabajo es el que hace que la batería no esté a la altura de estos “power users” que verán cómo en un día es posible que se agoten los 1.500 mAh de su batería. La misma que en un E71, por ejemplo, pero instalada en un teléfono que se usará con más frecuencia que este último. Por supuesto , si se hace un uso normal de este terminal N97, la batería durará más, pero en ese caso es mejor adquirir un terminal precisamente eso: normal, como por ejemplo el citado E71 también de Nokia. Al final, si se usa el N97 como mini ordenador, habrá que cargarlo tanto como a un portátil. En principio no es malo en sí mismo, pero sí choca un poco con las expectativas de los usuarios a la espera eterna de un teléfono inteligente que tenga una duración de la batería de dos días aunque se use con frecuencia y sin miramientos.   Realidad aumentada: todavía una ficción   Una de las promesas veladas que acompañan a este terminal es la de incluir aplicaciones de “realidad aumentada”. Incluso en el anuncio de TV se podía ver a un individuo apuntando al sol al tiempo que aparecía en pantalla la información meteorológica. Pues bien, este tipo de aplicaciones aun no están a disposición de los usuarios. Están desarrollándose en los laboratorios de Nokia, pero todavía están en fases beta. La realidad aumentada consisten precisamente en hacer uso de la tecnología para obtener en tiempo real datos e información sobre el entorno mediante el acceso a bases de datos que recuperen todos aquellos datos que sean de interés para mejorar la experiencia de los usuarios.   En última instancia, el N97 no está pensado para usuarios de a pie. El tamaño es un inconveniente para quienes lo vean más como un teléfono que como un mini ordenador, y de hecho el N97 mini está llamado a encajar en perfiles de usuario menos corporativos pero que sí hagan uso de redes sociales, mensajería o correo particular en combinación con una tarifa de datos plana. El tamaño del N97 mini es similar al del Nokia 5800 XpressMusic, con una pantalla de 3,2 pulgadas y menos capacidad de almacenamiento.    Conclusiones   Nokia N97 es un terminal perfecto para el trabajo y los negocios una vez que se asume que la batería será su talón de Aquiles. Las tareas cotidianas que se pueden resolver desde este mini ordenador de Nokia son muchas y evitan tener que estar siempre con el portátil a cuestas, pero su buen hacer en el ámbito corporativo lo aleja de los usuarios residenciales. Al principio puede ser un reclamo tentador eso de hacerse con un teléfono de gama alta de Nokia, pero si no se le saca partido, acabará por resultar un poco “ladrillo”, sobre todo cuando se hable sin el manos libres. La integración de OVI Store fue novedad en su momento, con un buen número de aplicaciones gratuitas y de pago disponibles para mejorar las posibilidades de este terminal.   La pantalla de inicio es también un buen reclamo cuando están activados los widgets: Noticias, el Tiempo, Facebook o el correo llenan literalmente la pantalla con sus contenidos que pueden actualizarse dinámicamente, aunque a costa de aumentar el tráfico de Internet y el consumo de batería.   El acabado es correcto, aunque de cerca pierda algo de “gancho” al comprobar que su carcasa es muy “plástica”. De todos modos, el mecanismo para extraer y ocultar el teclado es excelente y ubica la pantalla en una posición inclinada sobre las teclas para facilitar la visibilidad mientras se escribe. En definitiva un producto con novedades interesantes pero que no acaba de convencer en el día a día, al menos no tanto como esperábamos.  
4 comentarios1 shares
07/09/2009marenas
Samsung Jét S8000

Samsung Jét S8000

Un terminal que combina una excelente ergonomía junto con una interfaz táctil sumamente rápida que además puede mover aplicaciones con agilidad gracias a su potente procesador. Un smartphone con el tamaño de un teléfono convencional. Correo, Internet, mapas o juegos se ejecutan con rotundidad en este móvil que además cuenta con herramientas multimedia de alto nivel.  La competencia en el mercado de los teléfonos móviles es dura, con modelos extremadamente competitivos dentro de los catálogos de los fabricantes más importantes en una búsqueda constante de la aceptación de los usuarios. Tras un tiempo con modelos conservadores el gigante coreano lanza su nueva serie S, encabezada por el modelo que analizamos.   Es difícil acertar con un diseño: los terminales muy grandes en tamaño pueden presumir de pantallas de 3,7' pulgadas o incluso 4 pulgadas, pero a costa de sacrificar movilidad. Los muy pequeños son fáciles de llevar, pero a cambio se renuncia a prestaciones y características. Samsung Jét consigue un notable equilibrio entre movilidad y funcionalidades exprimiendo al máximo la interfaz TouchWiz 2.0 y el procesador de propósito general integrado a 800 MHz de frecuencia de reloj.    La pantalla es la gran protagonista del terminal, con sólo unas pocas teclas físicas. Es táctil con una respuesta rápida y una interfaz gráfica donde es sencillo acertar en la pulsación de los botones en pantalla gracias a la elección de tamaños de fuente relativamente grandes. El puntero no se echa de menos en ningún momento, ni siquiera cuando se usa el teclado QWERTY. Eso sí, lo mejor es configurar las opciones "hápticas" de modo que la vibración al pulsar la pantalla sea mínima, o de otro modo se ralentiza mucho la pulsación de las teclas.    La tecnología AMOLED ofrece colores saturados, negros puros y un contraste muy bueno que permite manejar la pantalla incluso a plena luz del día. Sus 800 x 480 píxeles son de gran utilidad para disfrutar de contenidos multimedia, así como para conseguir una densidad de puntos elevada aunque en la práctica no se puedan usar fuentes demasiado pequeñas.   La pantalla se ajusta con bastante precisión al tamaño de los vídeos que puede grabar este Samsung Jét S8000 de nada menos que 720 x 480 puntos a 30 fps. El tamaño de las grabaciones es considerable, de modo que es conveniente tener instalada una tarjeta microSD de alta capacidad. También puede grabar vídeo a cámara aunque con una resolución menor. La segunda cámara para vídeo conferencia permite establecer comunicaciones multimedia con calidad VGA.  La cámara de fotos de 5 Mpx. es rápida y cuenta con todas las funcionalidades exigidas hoy en día como el "smile shutter", creación automática de panoramas o múltiples modos de escena. La geolocalización es posible gracias al GPS integrado, de modo que la ubicación se guarda en la información EXIF.   El visor de fotos permite explorar las imágenes en la memoria del móvil o también realizar funciones de edición o incluso compartirlas localmente o subirlas a portales on-line como Picasa, Flickr, Facebook o MySpace, entre otras redes sociales. Los vídeos también se pueden subir a YouTube a través de la aplicación homónima en el móvil de modo que nunca se dejará de estar conectado.   El correo es otra de las habilidades de este terminal, compatible incluso con servidores Exchange. Desde luego las cuentas POP/SMTP se configuran en pocos pasos, así como Gmail. La interfaz de mensajería al principio llama la atención por el elevado tamaño del texto, necesario para que la interfaz táctil sea efectiva. Pero tras un breve periodo de adaptación se consigue navegar a través de los correos con facilidad. Otro tanto de lo mismo se puede decir del administrador de llamadas y contactos, configurables hasta límites que pocos usuarios necesitarán alcanzar. Se puede ir de una llamada a un mensaje de texto o correo sin problemas, de modo que siempre se podrá establecer contacto con el destinatario a través del medio preferido. La sensación de tenerlo todo bajo control es elevada en todo momento.Las aplicaciones multimedia no se quedan atrás en este terminal Samsung Jét S8000. El reproductor de música es una auténtica joya, con una interfaz visual que se ve mejorada por la pantalla AMOLED. La imagen de la carátula de los discos, así como los efectos de visualización están muy cuidados, sin olvidar el apartado del DSP de audio, con la posibilidad de activar sonido virtual 5.1 en los auriculares, así como efectos de audio que recrean estilos como Rock, Jazz, MegaBass, música en vivo, sala de conciertos, etcétera. Y todo ello bajo el control táctil dactilar, sin que se necesite puntero alguno.   Si se gira el teléfono, la pantalla cambia de modo gráfico con rapidez. Y por si fuera poco, dispone de un modo en el que el reproductor multimedia se maneja mediante "golpecitos" en la carcasa, junto con movimientos agitando. No es nada nuevo, pero está estupendamente implementado. El altavoz integrado tiene una potencia muy elevada, pero sin que distorsione el sonido, lo cual será del agrado de los clientes más jóvenes que siempre están dispuestos a animar una fiesta improvisada alrededor de un móvil, por ejemplo. La radio funciona muy bien y la selección del dial se puede hacer con un dedo pero con una precisión exquisita donde pasar de una frecuencia a otra se lleva a cabo con precisión de hercios pero también con una rapidez que posibilita recorrer el dial FM entero en segundos. Además se pueden grabar las emisiones.   La interfaz gráfica también contempla el uso de un cubo 3D para seleccionar la aplicación en curso al más puro estilo LG Arena, pero con una sutil diferencia: esta vez el cubo es realmente un cubo 3D y no una imagen 2D que parece un hexaedro. Con el Samsung Jét S8000 se pueden usar las seis caras y no cuatro con en el caso de LG. La interfaz 3D se extiende a multitud de apartados en el teléfono, como el reproductor multimedia, el gestor de aplicaciones abiertas o la selección de los favoritos de Internet.   Los juegos también se ejecutan con una calidad gráfica y de audio elevadas, con la ventaja de la multitarea implícita en el terminal. Se puede navegar en Internet, tener abierto el correo, el reproductor multimedia o el editor de vídeo y cambiar de una aplicación a otra mediante el administrador de tareas sin que se resienta el sonido de las canciones o la respuesta de la interfaz. Sí la batería, que se agotará más rápido, pero en las pruebas, con un cargado para móviles de APC se recargó en cuestión de un par de horas. También se carga mientras está conectado con un ordenador a través del software New PC Studio, desde el cual se accede a los contenidos del móvil, se gestionan archivos, vídeos, canciones, mensajes o contactos desde una interfaz centralizada.    La calidad del sonido en las llamadas está a la altura del DSP de audio instalado, tanto con el altavoz interno como el externo o el manos libres. Cuenta con un jack de audio de 3,5 mm, de modo que se pueden usar los auriculares que se prefieran para escuchar la radio, el audio o vídeos. Eso sí, la conexión USB no es estándar, lo cual constituye una de las mayores "pegas" de este terminal. Otra pega es la navegación web. Los botones táctiles en pantalla son grandes, lo cual roba mucho espacio en pantalla para mostrar las páginas web, que acaban por encajar de forma deficiente en la pantalla aún a pesar de que su resolución es de 800 x 480 puntos. Terminales con la misma resolución pero con tamaños de fuente más reducidos aprovechan mejor el espacio, como los HTC Touch HD, aunque en este caso el uso de un puntero es casi obligado. En cualquier caso, las páginas optimizadas para dispositivos móviles se ven con corrección.    En el apartado de las aplicaciones, Samsung Jét S8000 no se caracteriza por la existencia de repositorios de aplicaciones extensos como ocurre con Symbian, Windows Mobile, Android o Apple. Los programas entran dentro de la modalidad de "Widgets" que se instalan sobre la interfaz con un repertorio limitado de ellos. Google Maps, juegos, el navegador Dolphin de Samsung y otras aplicaciones en mayor o menor medida relacionadas intrínsecamente con este terminal concreto son los que pueblan las bibliotecas de Widgets.   En cualquier caso, este terminal no invita a instalar aplicaciones de todo tipo, sino a utilizar las que inteligentemente se han instalado por defecto y que por sí solas cubren con nota áreas como el ocio digital multimedia, la mensajería, las opciones de comunicación mediante GSM, 3G, Bluetooth y WiFi o la navegación en Internet. El teclado tiene dos modalidades: por un lado el QWERTY completo en el modo apaisado y por el otro el típico teclado de móviles con teclas compartidas en el modo vertical. El primero está optimizado para usar con dos manos, mientras que el segundo se puede usar con una mano. Es una filosofía que también emplea Nokia en el Xpress Music y ahora en el N97 y que consigue integrar en la interfaz táctil lo mejor de ambos tipos de teclados. De todos modos, un teclado QWERTY completo y físico es indispensable para conseguir la mejor experiencia en mensajería.    En el apartado de la conectividad WiFi, durante las pruebas en una red con routers 802.11n, la exploración de las redes inalámbricas originó un error en la aplicación, que en condiciones normales muestra de un modo eminentemente gráfico los puntos de acceso disponibles así como sus parámetros básicos. Posiblemente sea una cuestión de incompatibilidad con las bandas de 5 GHz de los routers duales que empiezan a aparecer en el mercado. En el resto de los escenarios donde se probó, sí se detectaron correctamente y con rapidez los puntos de acceso disponibles. Otras incidencias que se encontraron durante las pruebas entran dentro del capítulo de los "deseos". Como el de encontrar una conexión USB estándar en los terminales de Samsung, o una duración de la batería más prolongada. Si se deja activado WiFi o se usa el GPS o 3G con asiduidad, habrá que cargar el móvil una vez al día para evitar quedarse "colgados" en la jornada siguiente.      Conclusiones   Samsung ha conseguido integrar en un terminal compacto, estiloso y muy atractivo todo un arsenal de tecnologías para el ocio, la comunicación y la conectividad total. La interfaz táctil TouchWiz 2.0 resuelve el apartado de la tactilidad con buena nota, y de igual modo que el Omnia original se echaba de menos un puntero, en el Samsung Jét S8000 su ausencia pasa totalmente desapercibida.   La pantalla resistiva es precisa y ágil, aunque en alguna aplicación como Google Maps el zoom no funciona especialmente bien. De todos modos se trata más de un problema del software que de la interfaz, que demuestra en el resto de los casos que está a la altura de su procesador de 800 MHz con aceleración gráfica, procesador avanzado de sonido y hardware dedicado para interactuar con todo el hardware de que se compone esta preciosidad de móvil.   La pantalla AMOLED confiere un atractivo especial a las aplicaciones y a los contenidos, llenando de colores saturados y nítidos las 3,1 pulgadas que ocupan la mayor parte de la superficie del móvil. El grosor es mínimo y permite llevar el teléfono en cualquier bolsillo. La construcción es muy dura y resistente, de modo que no necesita de cuidados especiales más allá de evitar que se caiga al suelo o sentarse encima de él. En definitiva, Samsung parece haber encontrado una buena fórmula para llevar alta tecnología a todas las audiencias.  
22 comentarios6 shares
30/06/2009marenas
SMC Wireless Pan Tilt Zoom IP

SMC Wireless Pan Tilt Zoom IP

Una cámara de vigilancia con todo lo necesario para monitorizar un espacio amplio remotamente gracias a la funcionalidad "Pan and Tilt" y a la presencia de LEDs para visión nocturna. Además, incorpora entradas y salidas domóticas y la posibilidad de guardar contenidos localmente para el caso de que falle la red.La seguridad de bienes y personas es una fuente de preocupaciones que la tecnología puede ayudar a minimizar. Las cámaras de videovigilancia como esta SMC WIPCAM-PZ son capaces de monitorizar el vídeo y el audio en ubicaciones remotas de modo que aun en la distancia se puede conocer el estado de nuestra zona de vigilancia.Dejando de lado los aspectos legales sobre este tipo de prácticas (sobre todo en el caso de personas), la utilidad de una cámara IP es extraordinaria. Y más cuando se trata de un modelo tan completo como el aquí analizado de SMC. Los motores integrados permiten realizar barridos que en la práctica hacen posible cubrir casi toda la periferia de la cámara. Si está instalada en un techo o una pared en una estancia no demasiado grande, con una única cámara se puede cubrir toda una habitación de tamaño medio sin problemas.El aspecto de la cámara está alejado del de modelos profesionales, pero aun así es capaz de grabar hasta 640 x 480 puntos de resolución en formato MP4 y 30 fps. El procesador ARM 9 ayuda en la tarea, aunque la cámara acaba calentándose bastante.Es conveniente aclarar que para ello es preciso programar barridos secuenciales de modo que el movimiento no sea ni muy lento ni muy rápido. Una velocidad lenta haría que se quedaran puntos sin vigilar adecuadamente, y muy rápido ocasionaría que las imágenes y los vídeos no tuviesen el grado de detalle necesario para hacer una auditoría de seguridad en caso de que ocurriese algún incidente.Además del vídeo también se registra el audio, con la posibilidad de enviar sonido en forma de alarmas o avisos tanto de forma manual como programada ante algún suceso como la detección de movimiento o la activación del puerto GPIO si estuviera conectado a algún tipo de sensor compatible. Además, hay ocho posiciones que se pueden almacenar de modo que cuando se seleccionan, la cámara se mueve rápidamente hasta dichas localizaciones sin hacer un recorrido secuencial. De este modo, es más fácil llevar un control preciso del estado de una habitación u oficina, o una casa de modo que las posiciones programadas apunten a ventanas, puertas, enchufes u otros puntos de interés.La conexión se realiza mediante cable o WiFi, aunque ante la ausencia de compatibilidad con PoE lo más recomendable es instalar la cámara cerca de una toma de corriente, o usar un alargador. La conexión mediante cable es más robusta, pero mediante WiFi es posible instalarla en ubicaciones complicadas, sobre todo en el hogar o en oficinas mal cableadas.La monitorización se puede realizar de tres maneras: mediante el software IP Camera Manager, mediante un navegador web accediendo directamente a la IP de la cámara o mediante un teléfono móvil gracias a la codificación 3GPP. El software IP Camera Manager es útil para configuraciones con varias cámaras instaladas donde haya que llevar un seguimiento de ellas de forma paralela, pero para escenarios donde sólo haya una o dos instalaciones, el navegador de internet permite llevar un seguimiento al minuto sin problemas y configurar todas las opciones de control incluyendo alertas de presencia, grabación de vídeo o creación de reglas de acuerdo con eventos externos.La interfaz GPIO es útil para este tipo de aplicaciones donde se instalen sensores de movimiento, por ejemplo, de forma que la cámara reaccione apuntando al origen de la intrusión, grabando imágenes y vídeo y posteriormente incluso activando alarmas, o sistemas domóticos para cerrar ventanas o puertas. En la propia cámara se pueden grabar contenidos, aunque la conexión USB no está en absoluto protegida y cualquier intruso podría hacerse con la llave USB donde se estuviese grabando con facilidad.La monitorización a través de un navegador compatible como Internet Explorer (con Active X), Safari o FireFox no tiene problemas y perrmite configurar todos los parámetros de un modo inmediato.Los siete LEDs infrarrojos son perfectos para poder ver en la oscuridad total, de modo que no hagan falta luces encendidas para grabar eventos. Eso sí, la calidad es cuestionable y de lejos el alcance de los LEDs Ir no es el mismo que de cerca. Pero en cualquier caso es mejor tenerlos que no. Y aunque sólo sea por la posibilidad de crear alertas por detección de movimiento, ya merece la pena. Incluso se puede programar el encendido de las luces principales para así disponer de la calidad más adecuada.En definitiva, una opción completa con un precio más razonable (346 euros precio recomendado por el fabricante, aunque se encuentra más barata) que las soluciones profesionales pero dejando en el camino opciones como la compatibilidad PoE o la protección frente a inclemencias del tiempo.
0 comentarios0 shares
23/06/2009marenas
Linksys Powerline Network Kit

Linksys Powerline Network Kit

La tecnología PLC está introduciéndose en el segmento del networking sin prisa pero sin pausa. Lo que hace uno o dos años era un producto anecdótico, hoy es una alternativa tangible y real a los sistemas de cableado Ethernet o WiFi. Linksys, con su marcada vocación profesional, ha optado por incluir en este dispositivo un concentrador de red Ethernet 10/100 de 4 puertos.    La instalación vertical es posible gracias a sendos soportes de pie que facilitan su instalación.  La tecnología WiFi es la preferida para instalar una red en aquellas ubicaciones donde no hay una infraestructura de red cableada y no resulta interesante desplegarla por costes o por conveniencia. De todos modos, con la mejora de la tecnología PLC y la consolidación del estándar HomePlug 1.0, merece la pena estudiar la viabilidad de una solución como la que propone Linksys con sus Powerline Network Adapter Kit.   Basado en la tecnología HomePlug 1.0 de 85 Mbps/200Mbps, consta de un dispositivo "captor" donde se inyecta el flujo de datos de la red local, y un dispositivo (o varios) receptor donde se recoge ese flujo para llevarlo a los equipos que necesiten estar conectados a la red. La peculiaridad frente a otras propuestas PLC radica en la presencia de cuatro puertos Ethernet en el dispositivo receptor, de modo que directamente se pueden conectar cuatro ordenadores a la red local sin necesidad de instalar un concentrador Ethernet adicional. Se ahorra espacio y transformadores de cualquier tipo, pues por definición de la tecnología PowerLine, la alimentación comparte cable con los datos de red.        El tamaño de los dos dispositivos de los que se compone este kit es muy reducido y están acompañados por sendos soportes de pie para que sea sencillo ubicarlos fácilmente en una oficina, donde tendrán su hábitat natural.   No es frecuente que en un hogar se necesiten conectar cuatro equipos a una red, pero en una oficina sí, y sobre todo si tiene distribución en altura o una superficie extensa que complique las obras de cableado o penalice el alcance de la red WiFi. Eso sí, como en todos los dispositivos PLC es necesario que la instalación de red eléctrica esté bien diseñada y compartimentada para evitar que los motores de los grandes electrodomésticos o aparatos especialmente dados a crear interferencias en la red entorpezcan el normal funcionamiento de la red local.   Si se dan estas circunstancias, la instalación de este kit de Linksys sólo llevará unos minutos. Se conecta el dispositivo con una única toma de red al concentrador o al módem donde se reciba la conexión de red ADSL, cable o del tipo que se tenga contratado, se instala el software de monitorización de Linksys (Utilidad PowerLine), y se detectan los dispositivos en la red y se introduce la contraseña de cada dispositivo conectado a esta red PLC. Tras ello, sólo resta conectar a los puertos del cocentrador Ethernet del segundo PLC los ordenadores de la red que se beneficien de esta conexión.    El proceso de instalación no reviste mayor dificultad siempre y cuando el software detecte correctamente al menos uno de los dispositivos PLC para, a partir de ese momento, completar la estructura de la red.   En las pruebas de rendimiento, tras comprobar que el estado de la conexión era bueno, con más de 80 Mbps teóricos disponibles, se realizó una medición de velocidad en la que se obtuvieron en torno a los 18 Mbps de velocidad sostenida. Como era de esperar no se alcanzaron los 85 Mbps teóricos para este tipo de conexiones HomePlug, pero se trata de una cifra superior a la obtenida en condiciones normales con una red WiFi 802.11g. Como ventaja, merece la pena destacar que de este modo es más complicado que un intruso se apodere de datos de nuestra red local al no estar visible para otros como en el caso de las redes WiFi.         Las medidas realizadas pueden parecer modestas, pero si se compara con otros modelos Powerline se comprueba que se trata de la velocidad habitual real en dispositivos Homeplug y suficientes para la mayoría de usuarios.   Para los usuarios que necesiten más velocidad de transferencia la marca comercializa una versión con 200 Mbps, más orientada a archivos pesados y streaming con contenidos en alta definición hasta 1080p.   Conclusiones   Linskys ha conseguido ofrecer un sistema fácil y eficaz de montar una red utilizando la red eléctrica convencional. La velocidad no es demasiado elevada, pero sí suficiente para desempeñar tareas convencionales. Los cuatro puertos Ethernet son un gran acierto al simplificar enormemente el proceso de conexión a la red de cada uno de los ordenadores en la red local.  
1 comentario0 shares
22/06/2009marenas
[ ]