Tecnología » MuyComputer
[ Tecnología ]
Vuelve la feria SITI asLAN 2009

Vuelve la feria SITI asLAN 2009

SITI/asLAN'2009, una de las ferias con más antiguedad del sector informático, tendrá lugar del 31 de marzo al 2 de abril en Feria de Madrid. Se presenta como referente del sector TIC en España y como marco especializado de los profesionales interesados en tecnologías relacionadas con las redes. El mensaje principal de esta XVI edición es "El verdadero valor de la tecnología”, y pretende transmitir el papel estratégico que van a jugar las TIC y las comunicaciones en el desarrollo de la economía del país.La feria, que mantiene su carácter exclusivamente profesional, se centrará en áreas de especialización tecnológica relacionadas con las redes: banda ancha, tecnologías IP, seguridad, servicios gestionados y movilidad. También incluirá Storage Fórum, un evento dedicado exclusivamente al almacenamiento de datos en las corporaciones En 2009 se darán cita más de 100 empresas expositoras, con representación de 600 marcas y productos de la más avanzada tecnología. Respecto a la asistencia, se prevé sea superior a los 14.000 visitantes. Además de la exposición se organizarán eventos simultáneos en el marco de la feria, entre los que destacan el Foro Tecnológico, Iniciativa 10 Sectores Clave y Presentación de casos de éxito.SITI/asLan'2009, que este año se celebrará en el Pabellón 6 de Ifema, está enfocado para el público profesional exclusivamente. Desde este enlace puedes realizar la inscripción si te encuentras entre ese colectivo.Qué: SITI/asLan'2009.Dónde: En el Pabellón 6 de Ifema, Madrid.Cuándo: Del 30 de marzo al 2 de abril de 2009.Cuánto cuesta: Gratuito.Para quién: Para los profesionales interesados en tecnologías relacionadas con las redes.
0 comentarios0 shares
09/02/2009MuyComputer
NEC se va de Europa

NEC se va de Europa

De nuevo, una empresas tecnológica con malos resultados decide recortar gastos y proyectar su negocio a países como Japón, donde su producción es más rentable. NEC saldrá del mercado europeo en busca de nuevas oportunidades a mediados de este año. En los últimos tiempos el sector informático ha reducido sus márgenes de beneficio por la crisis de consumo que se vive en todo el planeta, nadie escapa a la tendencia.   NEC se está planteando salir del mercado de ordenadores de empresa del mercado europeo para trasladarse a Japón, según informa Yahoo! Tech en base a informaciónes del periódico japonés Nikkei. De este modo, la compañía cerraría su planta de producción instalada en Francia para reducir todo el negocio sólo al gigante asiático.    De momento, no hay confirmación por parte de la empresa pero parece que los proyectos de futuro de NEC se focalizan en Japón. Mientras tanto parte de los afectados serán los de la empresa francesa subsidiaria de la firma nipona, NEC Computer SAS,  donde existen 420 empleados. Esta noticia reafirma la que se daba hace unas semanas: después de presentar sus previsiones financieras, NEC había decidido despedir a más de 20.000 trabajadores de los cuales el 60% eran de fuera de Japón.   Como ya hemos ido informando en muchas ocaciones, no es el mejor momento para las empresas tecnológicas, que están recortando personal de manera desmesurada. NEC no podía ser ajena a esta coyuntura económica, y para el año fiscal que termina el proóximo 31 de marzo esperan unas pérdidas netas de 290.000 millones de yenes, casi 2.500 millones de euros.  
0 comentarios0 shares
06/02/2009Verónica Cabezudo
Sony reconoce tus venas

Sony reconoce tus venas

La compañía japonesa ha presentado este mes en Tokyo una nueva tecnología apodada Mofiria que reconoce las venas del usuario. De este modo, al igual que en el reconomiento de huellas dáctilares, se puede autentificar la identidad pero "de una forma más rápida, de mejor calidad y un tamaño mejor", según ha anunciado la propia compañía. Este mismo año, la corporación quiere incluir este sistema en sus teléfonos móviles.   "Tamaño compacto, alta rapidez y tecnología de autentificación mediante las venas de los dedos de alta calidad" son las características del nuevo sistema Mofiria que Sony ha presentado este mes en Tokyo. Hasta ahora conocíamos el reconomiento de huellas dáctilares, de rostros o los escáneres de iris y retinas. Sin embargo, Sony presenta este sistema que puede ser más fiable que sus predecesores, si cabe, según informa Techradar.    La tecnología Mofiria trabaja de la siguiente manera: un sensor CMOS captura diagonalmente la luz aislada de las venas de los dedos, lo cual muestra un único plano posible. Este sistema es más seguro que las huellas dáctilares, según Sony, ya que no puede ser clonado.   Este sistema de autentificación pretende proteger la información de ordenadores o teléfonos móviles como ya lo hacen otros sistemas, por ejemplo, los sensores de huellas dactilares.  Por ello Sony quiere incluir la tecnología Mofiria en los teléfonos móviles de la casa este mismo año y quién sabe si pronto lo veremos en más dispositivos electrónicos.  
0 comentarios0 shares
02/02/2009Verónica Cabezudo
Circuit City cierra sus 567 tiendas

Circuit City cierra sus 567 tiendas

Una de las cadenas comerciales más grandes en Estados Unidos, Circuit City, especializada en la venta de electrónica e informática cerró sus 567 tiendas el pasado 16 de enero con el consecuente despido de más de 34.000 personas. El cierre se debe a la falta de un comprador que hiciera frente a las deudas que acarreaba la empresa. Las ventas on-line y la incursión de los hiper en su mercado la ha llevado al hoyo.La crisis del consumo ya empieza a pasar factura no sólo a los fabricantes; también el retail (los puntos de venta) lo está pasando canutas. La última gran víctima ha sido la cadena de tiendas Circuit City, que a pesar de haber intentando buscar un comprador para el negocio, al final ha tenido que echar el cierre. Sus propietarios no podían hacer frente a las facturas pendientes y al final han tenido que tomar la decisión de cerrar sus casi 600 establecimientos repartidos por todo Estados Unidos y despedir a toda su pantilla, más de 34.000 empleados. Una tragedia.Alan L.Wurtzel, uno de los fundadores de la cadena, admitió estar "muy, muy triste" después del cierre de esta popular cadena de tiendas de productos tecnológicos. No en vano era ya un clásico en el país del dolar, algo así como MediaMark o PC City en nuestro país. La caída brusca del consumo, la guerra de precios y la cada vez mayor cuota de mercado de los hiper generalistas han sido la causa de la pérdida de competividad de Circuit City.Según datos de Associated Press publicados por Yahoo Finance!, la empresa estuvo en conversaciones con inversores hasta el pasado jueves para intentar vender Circuit City. Dos de los posibles compradores, Ricardo Salinas Pliego con una cadena de tiendas de electrónica en América Latina y Golden Gate Capital, una firma privada de capital riesgo, sólo querían 350 tiendas. Circuit City consideró que la oferta era inviable y no hubo acuerdo. Han preferido desmontar el negocio con el consiguiente perjuicio para una plantilla de más de 34.000 personas. De este modo, las tiendas de Circuit City cerrarán sus puertas en cuanto acaben con el stock disponible, previsiblemente, en marzo. Si estás por los USA es el momento de encontrar alguna ganga antes de que, definitivamente, echen el candado.
1 comentario0 shares
20/01/2009Verónica Cabezudo
Analizamos Badaboom, de NVIDIA

Analizamos Badaboom, de NVIDIA

Nuestro laboratorio técnico ha montado un equipo de pruebas con el objetivo de evaluar el rendimiento de Badaboom, un nuevo software de conversión de vídeo desarrollado por NVIDIA capaz de aprovechar toda la potencia de la GPU. En nuestro informe estudiamos con varias configuraciones el rendimiento de la aplicación frente al otro software compatible con la tecnología CUDA, TMPGEnc 4.0 Xpress de Pegasys.   El presente artículo está centrado en cifras. Esencialmente en cifras obtenidas a partir de tarjetas gráficas GeForce GTX 280 de Zotac con chip gráfico GeForce GTX 280 de NVIDIA. Además, se trata de cifras que no están relacionadas con juegos, sino con el uso de la potencia de la tarjeta gráfica para realizar tareas que antes sólo se realizaban en la CPU.  En el Laboratorio montamos 3 NVIDIA GTX 280 para las pruebas de este especial.   Uno de nuestros objetivos era evaluar cuál son las ventajas de esta estrategia. A priori, una de estas ventajas radica en el extraordinario paralelismo de las tarjetas gráficas, capaces de realizar cientos de tareas simples a la vez de forma extermadamente eficiente. Aplicaciones en las que se tengan que realizar operaciones matemáticas simples sobre muchos valores se beneficiarán de este paralelismo siempre y cuando se programe una aplicación que se pueda ejecutar en la tarjeta gráfica en vez de en la CPU. O al menos una aplicación que sea capaz de redirigir a la tarjetas de vídeo los cálculos que sean menester.   Badaboom es una de ellas, desarrollada en CUDA, y que analizamos en profundidad en este especial del Laboratorio de MuyComputer.com   Contenido del especial   Analizamos Badaboom, de NVIDIA Equipo de pruebas y conclusiones ¿Qué es CUDA? Tests de rendimiento  
0 comentarios0 shares
18/01/2009marenas
Tests de rendimento

Tests de rendimento

Para las pruebas de codificación de vídeo usaremos dos aplicaciones que en la actualidad son compatibles con la tecnología CUDA de NVIDIA. Por un lado Badaboom 1.1 (http://www.badaboomit.com/) y por otro lado TMPGEnc 4.0 Xpress de Pegasys (http://tmpgenc.pegasys-inc.com/es/download/te4xp.html)En principio, aplicaciones “domésticas” como Badaboom 1.1 o Folding@Home para GPU están pensadas para usar una tarjeta gráfica en configuración no-SLI, pero si tienes más de una instalada, lo mejor es aprovechar todas ellas. Badaboom 1.1 permite asignar cada instancia a una tarjeta gráfica, siempre y cuando ésta esté conectada a un monitor.Esta circunstancia nos obliga a tener tres cables conectados, uno por cada tarjeta, aunque si tienes monitores con entradas de vídeo múltiples esto no será necesario. Con conectar cada salida de las tarjetas a una entrada del monitor podrás activar CUDA en ellas. Para nuestras pruebas usamos un monitor Samsung T240 HD junto con un BenQ de 22’ pulgadas, de modo que con dos pantallas conectamos tres tarjetas.Como vídeo de prueba, usamos un archivo .VOB de 1 Gbyte obtenido de la película Superman Return en DVD. Badaboom 1.1 puede leer directamente la carpeta VIDEO_TS obtenida tras ripear una película en el disco duro, aunque a efectos de agilidad es más práctico usar un archivo más corto. Como opciones para la codificación se eligió el perfil básico de salida para el dispositivo Apple iPhone, modificando algunos parámetros como el bit-rate, configurado a 500 kbps, así como el audio a 128 kbps. La resolución de salída es de 480 x 320 píxeles, para conseguir un tamaño de archivo final de unos 96 Mbytes. TMPGEnc se configuró con parámetros equivalentes para poder hacer las comparaciones pertinentes entre el procesamiento con CUDA y el procesamiento sólo con la CPU. A la vista de los resultados obtenidos con Badaboom, la conclusión es clara: CUDA en particular, y el uso de los recursos de las tarjetas gráficas para procesar tareas complejas en general, es uno de los mayores avances de la informática en mucho tiempo. Es cierto que si se compara el tiempo de conversión de vídeo de una instancia de Badaboom con procesamiento en GPU, con el tiempo obtenido por TMPGEnc usando todos los recursos de la CPU, que en este caso es nada menos que un Intel Core i7, las diferencias no son abrumadoras. Pero debemos terner en cuenta que , con tres tarjetas gráficas y tres instancias de Badaboom, hemos podido codificar tres cadenas de vídeo independientemente, con una velocidad prácticamente idéntica a la obtenida usando hasta dos instancias de Badaboom 1.1.Por otra parte también es reseñable que el rendimiento de cada instancia se mantiene prácticamente invariable cuando se ejecuta Folding@Home GPU usando una de las tarjetas gráficas y asignando las otras dos a la codificación de vídeo. Por el contrario, con TMPGEnc, cuando se pasa de una instancia a dos el rendimiento cae en picado, y mucho más cuando se pasa a tres. Otra enorme ventaja de CUDA es la independencia de la potencia de la CPU. Hay una relación entre la CPU y el resultado final, pero en ningún caso es dramático. Incluso bajando la velocidad a 2,1 GHz frente a los 3,2 normales, o asignando un único core a cada instancia de Badaboom se obtienen tiempos extraordinarios en las codificaciones. Sin embargo, TMPGEnc es sumamente sensible al rendimiento de la CPU y la mínima variación en la frecuencia de reloj o el número de núcleos asignados se deja notar en el resultado final. Así pues, con Badaboom y CUDA puedes perfectamente estar haciendo otras cosas mientras codificas una, dos o tres cadenas de vídeo dependiendo del número de tarjetas gráficas instaladas. Puedes hacer que varias instancias de Badaboom usen una misma tarjeta gráfica, pero en tal caso sí se nota una bajada del rendimiento de casi una cuarta parte según observamos en las pruebas, pasando de unos 220 fps a entre 50 y 60 fps. Aun así, puedes hacerlo sabiendo que el rendimiento de la CPU no variará y que incluso podrás jugar con otra GPU (en el caso de tener más de una). Contenido del especial Analizamos Badaboom, de NVIDIA Equipo de pruebas y conclusiones ¿Qué es CUDA? Tests de rendimiento
1 comentario0 shares
18/01/2009marenas
¿Qué es CUDA?

¿Qué es CUDA?

Las tarjetas gráficas llevan varios años siendo programables. En el origen de los chips gráficos está “T&L” o “Transform & Lightning” (Transformación e iluminación), una tecnología en la cual los chips gráficos sólo se encargaban de realizar transformaciones geométricas básicas junto con una iluminación muy sencilla de las escenas.En todo caso se trataba de operaciones fijas, donde no había cabida para la programación. Tuvimos que esperar a Direct X 8 y DirectX 9 para que se empezara a hablar de los Shaders, o mini programas que se podían ejecutar en el propio hardware gráfico para realizar operaciones definidas por los programadores de juegos. Así, llegamos al concepto de motion blur, objetos procedurales que se construyen a partir de un programa en vez de texturas gráficas, etcétera. Estos shaders originales estaban limitados por la longitud de dichas secuencias de instrucciones, así como por la precisión de los cálculos, de modo que nunca se llegó a un estándar realmente. Tanto NVIDIA como ATI usaban ligeras variaciones de los estándares DirectX que bastaban para que no hubiese un verdadero acuerdo.Con la llegada de DirectX 10, las tarjetas gráficas ya integran todo lo necesario para ejecutar secuencias de código con suficiente entidad como para conseguir efectos a la medida de la imaginación de los desarrolladores. Pero no sólo desarrolladores de juegos, sino también de aplicaciones de propósito general en el ámbito científico o multimedia. NVIDIA, a la vista del potencial mercado existente, desarrolló una especie de lenguaje C para gráficos (“Cg”), que luego evolucionaría hasta llegar a CUDA, un completo API de programación y una arquitectura que permite a los programadores crear aplicaciones que se aprovechen de la potencia de cálculo de las tarjetas gráficas sin tener que aprender un lenguaje de programación nuevo ni tener que empezar desde cero.El aumento del rendimiento es espectacular en muchos casos, pero con un coste muy inferior al de una estación de trabajo convencional basada en potencia de cálculo de procesadores. Sin ir más lejos, NVIDIA comercializa bajo el nombre “Tesla” estos superordenadores con distintas configuraciones e incluso da indicaciones para fabricar uno a partir de sus componentes individuales. De todos modos, lo que interesa en este caso es poder aplicar esta potencia de procesamiento en un entorno doméstico. Con el precio que exhiben las tarjetas gráficas de gama alta, lo cierto es que cualquier aplicación que contribuya a amortizar la inversión realizada siempre es bien recibida. No sólo para juegos, sino para acelerar tareas cotidianas como la recodificación de vídeo para adaptar películas y contenidos multimedia a los distintos formatos demandados por los reproductores multimedia portátiles. Analicemos si Badaboom es un buen ejmplo de ello.Contenido del especial Analizamos Badaboom, de NVIDIA Equipo de pruebas y conclusiones ¿Qué es CUDA? Tests de rendimiento
2 comentarios0 shares
18/01/2009marenas
Equipo de pruebas y conclusiones

Equipo de pruebas y conclusiones

Es el momento presentar al equipo de pruebas usado en este artículo. Es, sin lugar a dudas, un equipo ideal, difícilmente superable a día de hoy en cuanto a rendimiento y características. Placa base: ASUS Rampage II Extreme LGA 1.066 Se trata de una placa base para procesadores Intel Core i7 con arquitectura Nehalem capaz de acomodar sin problemas tres tarjetas gráficas de doble ranura. Además, es una de las placas más avanzadas para los amantes del overclocking gracias a su detallada BIOS y detalles como los controles manuales para modificar parámetros de la placa mientras está en funcionamiento. Con sistema de control de fases de potencia, hasta 12 Gbytes de memoria RAM DDR3 con perfiles automáticos o su sistema de audio Supreme X-Fi, se trata de una joya para cualquier usuario que tenga pasión por la tecnología.Procesador: Intel Core i7 965 Extreme El procesador más avanzado de Intel hasta la fecha, con una frecuencia nominal de 3,2 GHz, pero capaz de subir hasta 3,6 GHz / 3,8 GHz mediante refrigeración convencional. Con 4 núcleos reales y 8 virtuales gracias a la tecnología SMT, es capaz de ejecutar todo tipo de aplicaciones con una agilidad superior a cualquier otro procesador doméstico del momento e incluso por encima de procesadores de gamas profesionales como los Xeon. Su multiplicador desbloqueado permite jugar con la velocidad de proceso sin demasiadas complicaciones.Memoria RAM: Kignston 3 x 1 Gbyte 1.066 MHz Una cantidad suficiente para el test aunque la elección recomendada (lamentablemente no fue posible montarla a tiempo) para este caso sería un kit Kingston HyperX compuesto por tres módulos de memoria DDR3 KHX16000D3K3/3GX con capacidad de hasta 2.000 MHz de velocidad compatible con el sistema de configuración automática de velocidad de la placa Rampage II Extreme de Asus. De todos modos, el uso de triple canal hace que el ancho de banda disponible sea suficiente para aplicaciones que no requieran multitarea avanzada. Ventilador: Thermalright Ultra 120 xTreme para Core i7 El nuevo encapsulado de los procesadores Core i7 hace necesario cambiar de ventilador. Por fortuna Thermalright dispone ya de modelos avanzados para este zócalo, con una capacidad de disipación excelente y un nivel de ruido para el ventilador muy bajo.Unidad óptica: LG SuperMultiGGC-H20L Una unidad óptica SATA capaz de leer y grabar DVD, así como leer Blu-Ray y HDDVD. De este modo podemos trabajar con los últimos formatos de alta definición sin problema.Disco duro: Intel SSD de 80 Gbytes SATA La tecnología SSD de Intel permite alcanzar tasas de lectura y escritura difíciles de superar por los discos magnéticos tradicionales y admite trabajar con transferencias múltiples sin retardos gracias a su extremadamente baja latencia. Disco duro: Seagate Barracura 7.200.11, 1,5 Tbyte Como segundo disco duro contamos con un modelo de nada menos que 1,5 Tbytes de Seagate. De este modo se puede trabajar con todo tipo de ficheros sin temor a quedarse sin espacio. Además, su velocidad de transferencia en lectura y escritura es muy elevada gracias a la tecnología de almacenamiento perpendicular, que permite obtener densidades de almacenamiento muy elevadas y por tanto aumentar las tasas de transferencia de datos.Fuente de alimentación: Tacens Supero 1000, 1.000 vatios Para trabajar con un sistema como este, se necesita una fuente de alimentación de al menos 1.000 vatios como esta de Tacens. Eso sí, para conseguir que el sistema funcione es necesario jugar con distintas combinaciones para alimentar las tarjetas gráficas de modo que distintos raíles alimenten a distintas tarjetas, o de otro modo el consumo acumulado en un único rail puede superar el límite de amperaje máximo.Tarjetas de vídeo: 3 x Zotac GeForce GTX 280 AMP! La esencia de este artículo son las tres tarjetas gráficas que Zotac ha cedido para las pruebas a través de su contacto de prensa en España. Con estas tres tarjetas es posible obtener un rendimiento extraordinario en juegos, pero también permite acelerar tareas como la codificación de vídeo hasta niveles nunca vistos en un equipo de sobremesa tal y como veremos a continuación. La familia AMP! De Zotac permite realizar overclocking sobre los parámetros de funcionamiento para sacar un poco más de rendimiento si cabe a partir de estas magníficas tarjetas.ConclusionesSi bien es cierto que con un procesador extremo se pueden conseguir tiempos de conversión de vídeo muy buenos, no superan a los obtenidos usando tecnología GPGPU como CUDA. ATI tiene su propia tecnología en forma de un programa denominado AVIVO integrado en el controlador de los gráficos, pero de momento, la madurez de NVIDIA en este campo es notable, Además, usando varias tarjetas gráficas las diferencias respecto al uso de CPU se multiplican a favor de NVIDIA. El rendimiento dependerá del tipo de tarjeta que tengas, desde luego, pero en cualquier caso, lo cierto es que para codificar vídeo la mejor propuesta del momento es Badaboom y la tecnología CUDA de NVIDIA. Aún hay mucho por hacer, pero esta aplicación y Folding@Home son un buen comienzo para adentrarse en una nueva era del rendimiento de los ordenadores.Contenido del especial Analizamos Badaboom, de NVIDIA Equipo de pruebas y conclusiones ¿Qué es CUDA? Tests de rendimiento
0 comentarios0 shares
18/01/2009Tomás Cabacas
Internet sigue la Ley de Moore

Internet sigue la Ley de Moore

La Ley de Moore expresa el número de transistores que caben en un circuito integrado se duplica cada 18 meses. Un equipo de investigadores chinos ha descubierto que también puede describir el crecimiento de la Red: se duplicará cada 5,32 años. Tomando datos desde 2001 han concluido que la Ley de Moore no sólo permite predecir el crecimiento de Internet sino la manera en que esta evoluciona.El estudio ha sido publicado en la New Journal of Physics por Guo-Qing Zhang. Examinaron la Red desde diciembre de 2001 a finales de 2006 no en términos de sitios web sino a nivel de sistemas autónomos (AS), definidos como dominios de enrutamiento capaces de aplicar sus propias normas. Una universidad, un proveedor de servicios de Internet o una gran empresa puede tener una red AS.Para identificar el núcleo de Internet, la parte más importante en su estudio, utilizarón un método llamda k-core de descomposición. Cada k-core se adquiere eliminando de forma recursiva todos los nodos, con sus respectivos enlaces, con grado inferior a k. De esta forma llegan a la conclusión de que tal sólo el 0,3% del total del nodos pertenecen al núcleo.El núcleo y la periferia de Internet están regidos por distintos mecanismos evolutivos. Mientras que el núcleo es relativamente estable, la perifería crece continuamente con nuevos nodos y es la causa de la expansión. El resultado contrasta con estudios anteriores que aseguraban que el núcleo crecía a medida que Internet incrementaba su tamaño.
0 comentarios0 shares
15/01/2009Tomás Cabacas
Premios Vivero para la crisis

Premios Vivero para la crisis

Por fin hay ganador de los premios Vivero, una iniciativa de Fundetec para premiar a las start ups más prometedoras de 2008. Incarsoft Informática por su proyecto Contarapid, una aplicación para hacer la vida más sencilla a los contables haciendo la contabilización automática de las facturas vía web, se lleva los 9.000 euros prometidos. Al final, por la cancelación de la feria, no se entregaron los premios en Simo.Los Premios Vivero 2008 están organizados por la Fundación para el Desarrollo Infotecnológico de Empresas y Sociedad en colaboración con la Feria Internacional de Informática, Multimedia y Comunicaciones, SIMO y buscan reconocer la labor empresarial de proyectos españoles con base tecnológica con un beneficio para el entorno empresarial o social en estos tiempos de crisis. El problema es que esta edición, con la cancelación indefinida de la feria madrileña, no pudieron entregarse el pasado noviembre. Pero nunca es tarde si la dicha es buena y se entregaron el pasado lunes.La ganadora de esta edición fue la empresa valenciana Incarsoft Informática que ha desarrollado una aplicación que permite la contabilización automática de facturas y la gestión documental mediante las últimas tecnologías en visión artificial. Está pensada para mejorar la productividad de empresas de todos los tamaños, pues su coste de licencia, aprendizaje de uso, puesta en marcha y mantenimiento es 20 veces inferior al de otras soluciones similares.El resto de finalistas, entre los que se encuentra MuyComputer, fueron E-Quatium por su proyecto Walking in your shoes, un servicio de consultoría estratégica para pymes, Balzac Media por una webshow llamado Balzac TV, Solaiemes por su aplicación que da un valor añadido a los vídeos denominada Liveserve.Esta edición de los premios Vivero recibió 60 proyectos presentados por 55 compañías. De ellas, 18 proceden de la Comunidad de Madrid (el 46%), 8 de Cataluña (el 20%), 3 de Andalucía, 3 de Aragón, 2 de Castilla y León, 2 de la Comunidad Valenciana, y 1 de Galicia, Asturias y Navarra, respectivamente. De celebrarse SIMO 2009, todas estas empresas seleccionadas tendrán un stand en la mayor feria de tecnología en España.
0 comentarios0 shares
15/01/2009Verónica Cabezudo
Nintendo y MS, suspenso ecológico

Nintendo y MS, suspenso ecológico

Un estudio elaborado por la ONG Greenpeace sobre productos verdes en la industria tecnológica ha revelado que puedes ser el primero en ventas pero no intentar conservar el planeta. Nintendo, Apple y Microsoft son las que peor paradas salen en este estudio mientras que Nokia, Sony Ericsson y Toshiba son las más ecológicas.Greenpeace ha elaborado un ránking con 18 de las empresas más importantes y su nota en cuidado al medio ambiente, según su empleo de materiales recicables, consumo de energía y políticas empresariales.  El líder en esta lista, Nokia tiene casi un 7 de nota por lo que a pesar de estar en primera posición tampoco puede alardear demasiado. No obstante, nueve compañías no pueden decir ni que han aprobado. De mejor nota a peor nos encontramos con Sharp, Acer, Dell, HP, Apple con un 4,3, Philips con un 4,1, Lenovo con un 3,7, Microsoft con un 2,9 y Nintendo con un 0,8.Una cuestión más significativa que la nota ha sido la actitud de algunas empresas. Los de la manzana no han dejado que se examinasen algunos de sus productos para la investigación a pesar de anunciar su política enfocada en la tecnología verde en el 2008. Además de Apple, ASUS, Microsoft, Nintendo, Palm y Philips se han negado a colaborar con Greenpeace en este ránking, según informa la organización.Dentro de los productos más ecológicos, Greenpeace ha seleccionado al Lenovo ThinkCentre 58/M58p como el ordenador de sobremesa más verde, el Toshiba Portege R600 como el notebook más limpio, el Samsung SGH-F268 como el móvil más respetuoso con el medio ambiente, el televisor Sharp LC-52GX5 como el más ecológico y la pantalla que más cuida la naturaleza es la Lenovo L244x wide. 
1 comentario0 shares
14/01/2009Verónica Cabezudo
Especial rebajas tecnológicas

Especial rebajas tecnológicas

En MuyComputer nos hemos ido de tiendas y hemos recopilado algunas ofertas interesantes para estos días. Desde un netbook Acer Aspire One por 219 euros, a toda una réflex de Sony por algo más de 300 euros os ofrecemos algunas opciones interesantes para ahorrar algo de dinero sin renunciar a nuestros caprichos tecnológicos.Si habéis guardado algunos euros de estas navidades para las rebajas estáis de enhorabuena. Estos días podemos encontrar ofertas muy interesantes tanto en tiendas físicas como en comercios on-line.   .   En portátiles podemos encontrar, por ejemplo, un Acer Aspire One por 219 euros en Carrefour. Si queremos portátiles básicos y económicos El Corte Inglés ofrece un hasta 50% en varios Fujitsu Siemens. El Acer Aspire 6920G con Blu-Ray por 699 euros de Optize es otra buena opción. También nos parece interesante el monitor HP de 19" por 139 euros que podemos encontrar en la misma web o el BenQ de 20" que ofrece Optize por 115 euros.   En MuyComputer elaboramos un especial sobre cómo comprar un portátil barato, donde podéis encontrar pistas y consejos para acertar con la elección.      Otro dispositivo práctico para después de vacaciones y que podemos encontrar a buen precio es un disco duro externo. PC City ofrece uno de Western Digital con 1Tbyte por 94,99 euros. Los modelos MyBook Mirror Edition (que analizamos en MuyComputer) a 248 euros y el WD Passport de 320GB a 89,90 (que también revisamos en el laboratorio) nos parecen ofertas muy interesantes.   Si queremos dar el salto al réflex con una cámara básica podemos conseguir una Canon 1000D con objetivo 18-55 por 399 euros en Pixmanía. Las rebajas son mayores con modelos medios como la Canon 450D con dos objetivos por 809 euros (también en Pixmanía y analizada en profundidad en MuyComputer). PC City ofrece una Nikon D60 con el kit de dos objetivos a 579 euros. Con la Sony Alpha A200 podemos comenzar con una réflex de calidad por 319 euros.   Podemos dar el salto a la nueva generación de consolas por 179 euros, el precio de una XBox Arcade. Aunque lo rebajaron hace unas semanas nos sigue pareciendo una opción excelente que está permitiendo a Microsoft liderar el mercado.    Hemos seleccionado sólo algunas pero para encontrar nuestra oferta ideal nada mejor que ponerse un rato delante del ordenador y buscar cómodamente en internet. Un buen consejo es imprimir los anuncios o folletos (tienen valor contractual) y comprobar que los gastos de envío no se disparen. Además ya demostramos las ventajas de comprar fuera de España en un especial que conviene repasar.  Además hablando de tecnología es fundamental revisar bien las características técnicas y el modelo (las estrategias de marcas con la numeración pueden llevar a equívocos), tener en cuenta si necesitaremos accesorios adicionales y, por supuesto, comparar precios en varios establecimientos.   Como todos sabéis comprar en rebajas no significa renunciar a nada así que los productos cuentan con la misma garantía y la posibilidad de devolverlos si no estamos contentos (en establecimientos donde lo ofrezcan). ¡Felices compras!  
3 comentarios0 shares
08/01/2009Tomás Cabacas
Predicciones para 2009

Predicciones para 2009

¿Será 2009 el año de la nube? ¿Cómo afectará la crisis a la Web 2.0? ¿Mejorará la seguridad en Internet? Algunos gurús tecnológicos ofrecen sus primeras impresiones sobre qué podemos esperar del año que comienza. Aseguran que veremos incrementado el número de ciberdelicuentes por el creciente número de desempleados con perfil tecnológico.La crisis económica seguirá destruyendo empleo tecnológico en 2009. De las 1.059 empresas encuestadas por CDW en EE.UU durante el mes de noviembre un 11% esperaban recortes de plantilla, frente al 5% del mes anterior. El recorte en la inversión también será importante, y es un aspecto en el que coinciden la mayoría de expertos. La consultora City Investiment Research cifra el descenso entre un 10% y un 20% para 2009. Para Vince Kellen, de Cutter Consortium, la Web 2.0 y, en particular, las redes sociales, seran los grandes perjudicados de estos recortes: "Aun a riesgo de ofender a los entusiastas de la Web 2.0 pensamos que la mayoría de inversores verán más arriesgado poner su dinero en este tipo de proyectos. Para especular e innovar es necesario dedicar tiempo al capital humano y tener liquidez. Creo que muchos proyectos se estancarán en 2009, y sólo aquellos con un fuerte retorno de la inversión sobrevivirán".Yankee Group predice el principio del fin de los cables. La popularización cada vez mayor de las redes inalámbricas provocará la deseceleración y progesiva reducción de las ventas en soluciones con cable tanto en las empresas como en usuarios particulares. También estiman que este puede ser el año de la videoconferencia, una vez que las empresas empiezan a considerarla como una alternativa válida y más económica a los viajes y reuniones presenciales.La fuerte demanda de netbooks continuará a lo largo del año próximo. La consultora DisplaySearch augura buenas cifras en todos los frentes: usuarios avanzados, empresas y economías emergentes serán los pilares de su crecimiento.En seguridad, Sophos pronostica un aumento importante en los ataques de inyección SQL y de scareware (software intimidatorio, que incita al usuario a instar aplicaciones maliciosas). Por su parte, Message Labs vaticina un incremento del número y de la sofisticación de los ataques phishing a usuarios de redes sociales.
1 comentario0 shares
02/01/2009Tomás Cabacas
10 tecnologías verdes de 2008

10 tecnologías verdes de 2008

Aunque la coyuntura económica no es la mejor para crear tecnologías ecológicas ya que no suelen ser las más baratas, en 2008 se han dado pasos para evitar la destrucción del planeta. En este caso, MuyComputer ha elaborado una lista de las 10 tecnologías más verdes basándose en un artículo de la revista Wired.La revista Wired ha elaborado un extenso artículo sobre las tecnologías más limpias que se han desarrollado durante este año que ya toca su fin.En el número uno coloca un prototipo de planta industrial que con la tecnologia Calera que fabrica cemento pero utilizando la mitad de energía.Planta solar en los Emiratos Arábes.La primera prueba se hizo en agosto en la fábrica Dynegy´s Moss Landig en California. El principio de una larga trayectoria energética.En segundo lugar, el artículo de Wired habla del programa Projet Better Place, un esquema para distribuir las estaciones energéticas para ahorrar a través de pequeños puntos geográficos claves en Israel, Hawaii y San Francisco.El primer cargador de energía se ha establecido recientemente en Tel Aviv, Israel, y ya se tienen en mente otras terminales que contribuyan a distribuir mejor la energía sin desperdiciar.La empresa Nanosolar, una de las primeras en fabricar placas solares, es la protagonista de la tercera tecnología limpia. Este año la empresa ha abierto una planta donde se produce a un gigavatio y todo gracias a la tecnología solar.Si ser el primer presidente afroamericano ya es todo un hito. El artículo de Wired pone en cuarto lugar la firme apuesta del presidente electo, Barack Obama, por las energía verdes. Además, Obama ha contado con Steven Chu, premio nobel de física, en su departamento de Energía, un hombre que esperemos haga mucho por el planeta.Steven Chu.En quinto lugar hablamos de una cuestión que, en principio, puede parecer una perogrullada pero no es así. Ya que el sol puede producir energía, ¿qué mejor lugar que los desiertos para instalar placas solares?Planta de placas solares en el desierto.Dos compañías, BrightSource y Ausra, han debutado abriendo dos plantas piloto.Otro hecho relevante en este 2008 ha sido el Plan Pickens de T.Boone Pickens que busca que las ciudades encuentre nuevas fuentes de energía.Otro revolucionaria tecnología desarrollada por el científico Daniel Nocera es el catalizador de agua que permite separar el hidrógeno y oxígeno del agua para crear energía que se puede convertir en luz.Aunque la octava hito de la tecnología verde sólo afecta a algunos países, ya es un hecho que algunos estados se planteen cambiar sus leyes para regular las tecnologías verdes.En el noveno lugar pero no por ello menos importante es la captura de las emisión de dióxido de carbono, una actividad tan complicada de realizar como de explicar.Por último, el artículo de Wired nombra las islas solares que se están creado por ejemplo en los Emiratos Arábes en Ras al Khaimah.
1 comentario0 shares
01/01/2009Verónica Cabezudo
El portátil gana al sobremesa

El portátil gana al sobremesa

Es una tendencia que llevamos tiempo viendo pero que ahora viene confirmada por los datos de grandes de la tecnología como Dell: el portátil está desbancando el tradicional lugar de los ordenadores tanto en el ámbito doméstico como en las empresas. Los portátiles, además de reducir espacio y aumentar movilidad han contribuido a la adopción del teletrabajo en medianas y grandes compañías.El portátil comienza a ser el rey de la fiesta de los equipos, según el II Barómetro de la movilidad presentado por Dell y la consultora especializada IDC. El mercado de éstos ha crecido más de un 26% y el de los dispositivos móviles tipo smartphone cerca del 22%.A diferencia del 2007, el precio ya no es no de los factores más importantes sino que ahora prima más las prestaciones del equipo y la durabilidad, según el Barómetro de Dell.En cuanto a las empresas, la conexión WiFi es la preferida ya que aporta cobertura, velocidad y movilidad. Fuera de la oficina, 3G es la tecnología que mejor resuelve las necesidades de movilidad (62%), bajando algo la preferencia en cuanto a cobertura y velocidad (58%). Persiste un 33% de empresas que siguen prefiriendo WiFi como solución a las necesidades de movilidad. En lo que respecta al coste, WiFi es considerada más eficiente fuera de la oficina por el 53% de las empresas entrevistadas. Además, gracias a las conexiones inalámbricas y los equipos portátiles, el teletrabajo está en auge. Una opción laboral que ayuda a conciliar la vida familiar y laboral.En el estudio no se habla nada sobre los netbooks, que poco a poco van ocupando su sitio en el mercado. ¿Pasará lo mismo en el Barómetro del 2009?
0 comentarios0 shares
24/12/2008Verónica Cabezudo
Calculadora que reconoce números

Calculadora que reconoce números

Los Nokia Beta Labs han desarrollado una interesante aplicación que utiliza un sistema de reconocimiento de escritura para realizar funciones de calculadora. Este software funciona en los modelos de Nokia con pantalla táctil como los Internet Tablet N800 y N810 y el Nokia 5800 Xpress Music y puede descargarse desde la página web de los Beta Labs de Nokia.   En Nokia parece haber surgido un repentino y significativo interés por las aplicaciones de las pantallas táctiles. Aunque no dispone de muchos modelos con estas características en el mercado, parece que la empresa finlandesa podría seguir el camino marcado por su nuevo 5800 Xpress Music para afrontar la popularidad del iPhone en uno de sus terrenos. En esta línea el departamento de desarrollo Beta Labs ha presentado en su blog una nueva aplicación orientada a probar la nueva tecnología de reconocimiento de escritura que están desarrollando.    Se trata de un software que permite utilizar una calculadora en pantalla capaz de reconocer los números y operaciones que escribimos con el puntero en la pantalla. Aparte de la posible utilidad de la herramienta (la calculadora de los teléfonos móviles suele ser incómoda de usar) lo interesante, según confiesan los propios miembros de Beta Labs, es probar cómo funciona el nuevo sistema de reconocimiento para su aplicación a otro tipo de herramientas. La aplicación puede descargarse desde la página web de Beta Labs. Es compatible con Nokia 5800 Xpress Music y dispositivos con pantalla táctil basados en S60 de quinta generación así como dispositivos basados en Maemo como los tablet N800 y N810. También es posible descargar una versión para Windows Vista o XP.  
0 comentarios0 shares
23/12/2008Gustavo de Porcellinis
Probamos la tecnología XGP

Probamos la tecnología XGP

En MuyComputer hemos tenido la oportunidad de realizar una toma de contacto con la relativamente nueva tecnología XGP (eXternal Graphics Platform) de ATI sobre un portátil Fujitsu-Siemens Amilo Sa 3650 equipado con esta propuesta de la compañía norteamericana para solucionar el problema del rendimiento gráfico (y multimedia) en equipos portátiles.   Tradicionalmente, la integración de unos gráficos solventes estaba limitada a portátiles a partir de 15 pulgadas, relegando a los modelos más pequeños a un segundo plano mediante el uso de gráficos integrados con un rendimiento modesto.   Con la introducción de la plataforma Puma hace unos meses, ya se anunció XGP, pero sin que hubiera un respaldo en forma de productos tangibles. De ahí que se trate de una relativamente nueva tecnología, pues a pesar de que sus especificaciones ya estaban desveladas desde hace tiempo, es sólo ahora cuando hay un producto real que se puede probar para ver si XGP es en la práctica tan revolucionario como sobre el papel.  Las pruebas   En un próximo artículo profundizaremos en los detalles técnicos de bajo nivel de esta tecnología. De momento baste decir antes de pasar a los resultados, que se trata esencialmente de llevar el conector PCI-Express "fuera" de la placa base para poder conectar dispositivos externos también PCI-E. En la teoría es sencillo, pero en la práctica, diseñar un conector robusto, rápido, económico, fiable y seguro que sea apto para integrar todas las conexiones y líneas PCI-E no es tarea sencilla.          Partiendo desde cero, AMD y Japan Aviation Electronics Industry Limited (JAE) trabajaron durante meses para desarrollar un cable adecuado. En primera instancia preparado para hasta 8 líneas PCI-E, aunque también habrá cables preparados para 16 líneas. XGP permite la conexión en caliente, así como la desconexión mediante el administrador de dispositivos externos conectados. De no hacerlo así, el riesgo de conseguir un pantallazo azul es elevado.   Una vez solucionado el tema del cable, diseñar una caja externa donde albergar una tarjeta gráfica con un buen rendimiento no es un problema, pues la alimentación y la disipación se gestionan fuera del portátil, de modo que existe un margen bastante amplio para dimensionar la disipación y el consumo sin afectar al propio ordenador. Además, existe margen también para integrar conectores como HDMI, DVI, e incluso USB a modo de hub.   En el futuro está previsto incluso ampliar las posibilidades de esta caja externa de gráficos mediante la integración de sistemas de almacenamiento como discos duros y configuraciones CrossFire. De hecho, se puede pensar en innumerables aplicaciones, no sólo para portátiles, sino para equipos de sobremesa como un método sencillo para extender las posibilidades gráficas y multimedia sin tener que modificar la configuración de base, ni sacrificar el factor de forma.   Eso sí, antes se debería pensar en unificar el tema de la alimentación de la caja externa GraphicBooster (así es como la denomina Fujitsu Siemens), pues de momento se soluciona mediante un transformador de corriente idéntico al del portátil, lo cual es algo aparatoso. Además, no fuimos capaces de configurar audio a través de la conexión HDMI del GraphicBooster, ni encontramos que los controladores instalasen ningún códec de audio, aunque no debería ser problemático solucionarlo en versiones finales de los controladores Catalyst.      Por otro lado, las especificaciones hablan de que sólo conectando los gráficos externos y sin usar monitores adicionales se puede acelerar el rendimiento en la pantalla del propio portátil. Sin embargo, en nuestras pruebas sólo pudimos acelerar el rendimiento sobre pantallas externas. De nuevo, no debería ser problemático habilitar configuraciones CrossFire, algo que en las pruebas tampoco pudimos realizar.En cualquier caso, los números hablan por sí solos. La mejora del rendimiento usando la tecnología XGP es excepcional. Y permite usar un portátil de sólo 13,3 pulgadas  y una buena portabilidad como máquina de juegos solvente y como centro multimedia al habilitar una salida HDMI, otra DVI y configuraciones avanzadas multimonitor. De hecho, en las pruebas también lanzamos sendos clips multimedia de alta definición para verlos simultáneamente en la pantalla del portátil y en otra externa conectada mediante HDMI.     Configuración Far Cry 2Demo "Ranch Small", 1.280 x 768, DirectX 10, FSAA 4x, VSync No, Calidad Óptima, Vegetación High, Shading High, Terrain High, Geometría High, Post FX High, Texturas High, Shadow High, Ambiente High, HDR Sí, Bloom Sí, Fuego High, Physics High, RealTrees HighEn resumidas cuentas, estamos ante una tecnología que bien comunicada y desarrollada puede abrir las puertas a interesantes soluciones que permitan crear un ecosistema lúdico, multimedia y productivo alrededor de los ordenadores portátiles y los sobremesa mediante el uso de soluciones externas "de quita y pon".   El precio del modelo analizado con gráficos HD 3870 es de unos 300 euros. Una cifra algo elevada si se compara con el precio de una tarjeta equivalente para equipos de sobremesa, pero sensata si se piensa que es el primer modelo que se lanza, y más aún si se tiene en cuenta que el precio del conjunto portátil-GraphicBooster estará en torno a los 1.200 euros 1.400 euros dependiendo de la configuración. Además, integra un práctico concentrador USB y permite tener un portátil realmente portátil, con unos gráficos propios de equipos más pesados.  
0 comentarios0 shares
19/12/2008Tomás Cabacas