Informática » MuyComputer
[ Informática ]
Seis falsos mitos de la tecnología que todavía persisten

Seis falsos mitos de la tecnología que todavía persisten

Son muchos los falsos mitos de la tecnología que todavía hoy se mantienen y campan a sus anchas por todo el mundo, e incluso son recurrentes en personas con un alto nivel cultural o formadas específicamente dentro de diferentes campos asociados o vinculados directamente con el mito en cuestión.Sin duda podríamos hacer un artículo muy largo si nos ponemos a recopilar, pero para que os resulte más ameno, útil y fácil de recordar hemos optado por seleccionar seis de los falsos mitos más importantes que se mantienen actualmente. 1.-Un procesador de más MHz siempre es mejor que otro de menosEste falso mito se puede extender a otros derivados muy comunes que podemos considerar como una actualización de éste, como por ejemplo el viejo conocido de "cuantos más núcleos tenga un procesador mejor será".Obviamente ninguno de estos mitos es cierto, y la razón es evidente. Una CPU depende de una gran cantidad de elementos que derivan directamente de su arquitectura interna, como el proceso de fabricación, IPC (instrucciones u operaciones por ciclo de reloj), generación, instrucciones adicionales, consumo y memorias caché.Así, un procesador de seis núcleos como el FX 6300 no es mejor que un Core i5 4460 de cuatro núcleos, ni siquiera aunque el primero corra a más MHz que el segundo y tenga más núcleos. 2.- La calidad de una cámara depende únicamente de sus megapixelesTotalmente falso, aunque ello no quiere decir que ello no afecte a la calidad de imagen, ya que influyen en la resolución máxima que es capaz de capturar.Sin embargo, y hecha esa aclaración, no es lo más importante, ya que hay otros aspectos que juegan un papel vital y que normalmente no tenemos tan en cuenta, como por ejemplo el sensor o la calidad de la óptica que monta la cámara, así como su apertura..Con esto en mente podemos entender porqué dos smartphones con cámara de 13 MP pueden echar fotos con una calidad muy dispar, y es que aunque tengan la misma resolución sus componentes clave no tienen porque ser los mismos. 3.- Pong fue el primer videojuego de la historiaMuchos lanzan esa afirmación de forma rotunda y contundente, pero la realidad es que el primero videojuego de verdad fue Tennis for Two, desarrollado por William Higinbotham.La base de este "simulador de tenis" fue un osciloscopio conectado a una computadora analógica, humilde pero suficiente para recrear un juego que permitía calcular la dirección de salida de la bola, su trayectoria y golpearla.A diferencia de Pong, que se creo en 1972, el juego Tennis for Two fue desarrollado en 1958, así que no hay duda en este sentido, aunque algunos mantienen que OXO fue realmente el primer videojuego de la historia si adoptamos un concepto amplio del mismo. 4.- OS X y Linux no sufren ataques de malware¿Quién no recuerda aquella famosa campaña de Apple en la que la manzana sacaba pecho al decir que sus Mac no tenían virus? Todavía tengo grabado en la memoria incluso el momento en el que la imagen humana del ordenador de Apple daba un pañuelo a su homónimo de Windows.Ambos sistemas tienen sus propios virus, aunque es cierto que la cantidad de malware que azota a OS X y Linux es mucho menor que la que vemos en sistemas basados en Windows, algo que tiene una explicación clara, la popularidad de la plataforma.El malware normalmente busca infectar a la mayor cantidad posible de equipos, y dado que Windows tiene una posición dominante resulta evidente que los ciberdelicuentes prefieran crear un virus que tenga la capacidad potencial de infectar 500 millones de equipos que de colocarse sólo en unas pocas decenas de millones. 5.- Apple inventó el sistema de interfaz gráfica de ventanasLa interfaz gráfica basada en ventanas ha sido uno de los elementos más importantes dentro de la informática que podemos calificar como moderna, esto es, aquella que ya queda alejada de los entornos de comandos como el memorable MS-DOS.Sin embargo, y a pesar de su enorme importancia, muchos usuarios creen que fue Apple quien desarrolló dicho sistema de ventanas, e indican que Microsoft lo plagió en Windows pero no, eso es totalmente falso.La realidad es que fue Xerox la desarrolladora de toda la idea y el concepto de dicha interfaz allá por 1972, aunque Apple se lo compró a cambio de un paquete de acciones tras salir a bolsa. 6.- Los cables HDMI más caros merecen la penaNada más lejos de la realidad, un mito que sin duda ha hecho daño en el bolsillo de más de uno de forma injustificada y que obliga a más de uno a poner cara de circunstancia cuando un amigo le enseña las "grandes diferencias" que consigue con su nuevo cable HDMI de 200 euros.Esto no sólo lo digo yo, sino que ha quedado demostrado en numerosas comparaciones, lo que supone que los cables HDMI extremadamente caros que vienen chapados en oro sólo ofrecen mejoras marginales y casi imperceptibles frente a los modelos económicos.Dicho esto tenedlo claro, un cable HDMI de cinco euros es más que suficiente. Enlaces de interés: Cinco mitos sobre el iPhone de Apple.Segunda parte | Otros falsos mitos de la tecnología que todavía persisten (y II)
213 comentarios57 shares
15/09/2015Isidro Ros
Guía: Los mejores periféricos para tu equipo (II)

Guía: Los mejores periféricos para tu equipo (II)

La semana pasada publicamos la primera parte de una guía centrada en elegir los mejores periféricos para tu equipo, un objetivo que ya anticipamos como algo complicado ya que como sabemos el mercado está muy saturado y actualmente es posible encontrar una gran cantidad de soluciones diferentes y que además se van renovando con bastante rapidez.Con esta segunda parte optamos por centrarnos en tres grandes productos, altavoces, mandos de control y auriculares, que a su vez dividiremos en diferentes subcategorías para que nuestra selección os resulte lo más útil posible, sin importar vuestro presupuesto.Sin más nos ponemos manos a la obra y como siempre os recordamos que los comentarios son todo vuestros, así que podéis plantear cualquier duda que os surja. Altavoces Juegan un papel esencial en casi cualquier equipo, aunque especialmente en aquellos dirigidos a multimedia y gaming, por lo que debemos cuidar mucho nuestra elección en este campo si queremos disfrutar de una buena experiencia en juegos, música y películas o series.La oferta de altavoces que encontramos en el mercado es muy amplia pero a continuación os dejamos algunas de las mejores opciones que podemos encontrar.Kit básico:Si buscamos un conjunto de altavoces de gama básica pero que nos permita disfrutar de un sonido de alta calidad y presente una calidad de construcción más que aceptable los Creative Inspire A-250 son una excelente opción.Este kit 2.1 cuenta con una solidez fuera de toda duda y ofrecen un desempeño fantástico para lo que cuesta.Precio: 27 euros.Kit avanzado:Para los que quieran algo más saltamos a un conjunto de altavoces 5.1 con sonido envolvente en 3D de alta calidad a muy buen precio, valores que ofrece el kit Logitech Surround Sound Speakers Z506.Calidad-precio es lo más equilibrado que podemos encontrar en el mercado, sobre todo para presupuestos ajustados.Precio: 75 euros.Kit de gama alta:Si eres un sibarita y el presupuesto te lo permite el conjunto Logitech Speaker System Z906 500W 5.1 THX Digital es una auténtica maravilla.A la certificación de sonido THX debemos sumar una alta potencia, mando a distancia y una calidad general envidiable.Precio: 265 euros. Mandos de control Imprescindibles para una gran cantidad de juegos, en las que el conjunto de teclado y ratón no nos permite disfrutar al mismo nivel que lo haríamos con un de estos accesorios, como por ejemplo los de conducción, los de lucha y los de acción en tercera persona.Dado que existe una oferta muy amplia y que las soluciones de gama básica ofrecen una calidad que no resulta demasiado recomendable estructuraremos la selección de una forma especial, en lugar de limitarla a una categorización por precios.Mejor mando para uso general:Sin duda en relación-calidad precio el mejor mando es el de Xbox 360 para PC, ya que resulta muy cómodo de usar, tiene un soporte excelente y la respuesta en general es soberbia.Como único defecto podemos hablar de la cruceta, que no es tan buena como la de otras alternativas, pero haciendo una visión global es un mando sobresaliente.Precio: desde 29,65 euros.Mejor mando arcade clásico:Es caro pero vale cada céntimo que cuesta, y por ello elegimos el Razer Atrox Arcade Stick. Su calidad de construcción salta a la vista y se disfruta desde el primer instante.Su palanca de control es de gran calidad y nos permite disfrutar de una experiencia de uso plena, mientras que los botones tienen una respuesta y un tacto fantástico. Todo un lujo, y además altamente personalizable.Precio: 172,99 euros.Mención de honor mando arcade clásico:Somos conscientes de que el modelo anterior no está al alcance de todos los presupuestos, y que tampoco todos los usuarios necesitan algo con ese nivel de calidad, y por ello hemos querido dar una opción interesante.En este sentido el mando Mayflash Joystick Arcade es una gran opción calidad-precio para presupuestos ajustados, ya que a pesar de que no llega al nivel de un mando profesional tiene una buena calidad de construcción y responde muy bien, aunque resulta algo ruidoso.Precio: 39,99 euros. Auriculares Dentro de esta categoría distinguiremos entre aquellos estándar y los orientados al gaming con micro incorporado, de manera que así podamos exponer una selección más amplia y acorde con las necesidades reales de cada tipo de usuario.No entraremos en gamas extremas ya que consideramos que no valen realmente la pena, sobre todo dada la diferencia de precio y prestaciones que existe entre ellos.Gaming gama básica:Los Tacens MH1 Mars Gaming Headset son lo mejor que podemos encontrar por menos de 15 euros, ya que ofrecen una buena calidad de sonido y una construcción general de calidad.Tanto por materiales como por diseño parecen una solución propia de un precio mucho mayor, y encima son muy cómodos.Precio: 14,25 euros.Gaming gama avanzada:Siguiendo el binomio calidad-precio los Mad Catz F.R.E.Q. TE son los más recomendables por menos de 100 euros, y no sólo por su sonido envolvente de gran calidad, sino también por diseño y comodidad.Su precio es elevado, pero compensa cada euro que cuesta con su gran calidad.Precio: 69,95 euros.Auriculares básicos sin micro:Por poco dinero recomendamos los Sennheiser HD 201, ya que son probablemente la opción más equilibrada que podemos encontrar actualmente por menos de 20 euros.Gran calidad de sonido en general, buena calidad de materiales, cómodos, aíslan bien y tienen un cable de 3 metros.Precio: 17,95 euros.Auriculares avanzados sin micro:No es necesario gastar una enorme cantidad de dinero para disfrutar de unos auriculares totalmente adaptables, cómodos y de gran calidad, y los Sennheiser HD 449 son una clara muestra de ello.Se adaptan a cualquier fisionomía y cubren totalmente la oreja sin presionarla, lo que se traduce en una comodidad absoluta. La calidad de sonido es estupenda y el aislamiento también.Precio: 56,01 euros.Guía: Los mejores periféricos para tu equipo (I)
39 comentarios598 shares
06/09/2015Isidro Ros
Siete ultraportátiles de deseo

Siete ultraportátiles de deseo

[texto_imagen numero="1"] Apple MacBook Según Apple, “rediseñado desde cero por dentro y por fuera” con chasis de acero y cristal para convertirlo en el portátil “más ligero, eficiente y delgado jamás fabricado” para 13,1 mm de grosor máximo y 900 gramos de peso. Con base hardware Intel Core M (Broadwell), su pantalla es una Retina de 12 pulgadas con resolución nativa de 2.304 x 1.440 píxeles. Es el primer portátil de Apple con un diseño de refrigeración sin ventiladores.[/texto_imagen][texto_imagen numero="2"] HP EliteBook 1200 La nueva joya de HP para movilidad profesional puede presumir de ser el portátil profesional más delgado y ligero del mundo con chasis fabricado en un aleación de magnesio-litio, fibra de carbono y aluminio, y el primero para empresas que utiliza un sistema de refrigeración sin ventiladores. Cuenta con procesador Core M (Broadwell) y una pantalla de 12,5 pulgadas con resolución de 2.560 x 1.440 pixeles.[/texto_imagen][texto_imagen numero="3"] Google Chromebook Pixel 2 Segunda generación del ultraportátil de marca propia de Google y el mejor equipo con sistema operativo en nube Chrome OS. Su chasis está realizado en un solo cuerpo de aluminio, utiliza procesadores Intel Broadwell-U y su pantalla tiene una diagonal de 12,9 pulgadas con resolución nativa de 2.560 x 1.700 píxeles.[/texto_imagen][texto_imagen numero="4"] Lenovo Yoga 3 Pro El Ultrabook “más ligero y delgado del mundo” dice Lenovo de este equipo con chasis de aluminio, procesador Intel Core M, pantalla IPS multitáctil de 13,3 pulgadas con resolución nativa de 3200 x 1800 píxeles y un diseño convertible de 360 grados para favorecer el modo tablet.[/texto_imagen][texto_imagen numero="5"] Dell XPS 13 El Ultrabook “más ligero y delgado del mundo” dice Lenovo de este equipo con chasis de aluminio, procesador Intel Core M, pantalla IPS multitáctil de 13,3 pulgadas con resolución nativa de 3200 x 1800 píxeles y un diseño convertible de 360 grados para favorecer el modo tablet.[/texto_imagen][texto_imagen numero="6"] NEC LaVie GZ Un Ultrabook de 13 pulgadas que bate récords en el sector con un peso de 795 gramos. Utiliza procesador Intel Haswell y una pantalla IGZO de Sharp con resolución nativa de 2560 x 1440 píxeles.[/texto_imagen][texto_imagen numero="7"] Eurocom M4 No es tan delgado ni ligero como los anteriores pero el integrador lo califica como el ultraportátil “más potente del mercado de las 13 pulgadas”, gracias a un procesador Core i7-4940MX Extreme Edition y gráficas dedicadas. Su pantalla es una IPS de 13,3 pulgadas con resolución nativa de 3200 x 1800 píxeles.[/texto_imagen] 
10 comentarios119 shares
11/08/2015Juan Ranchal
Todo listo para el Computex 2014

Todo listo para el Computex 2014

La semana próxima se celebra en Taiwán el Computex 2014, otra de las citas obligadas del calendario anual tecnológico ya que se trata de la feria informática más importante de Asia. Lo que es mucho decir ante el poderío de producción de la región y como tal desplegaremos una amplia cobertura en MuyComputer, así como en nuestros medios profesionales, MuyCanal y MuyComputerPro.Será la trigésima cuarta edición del Computex lo que da idea de la extensión e importancia de una feria que en esta edición espera superar los 1.700 exhibidores, 5.000 stands y 40.000 profesionales que pasarán desde el 3 al 7 de junio por el World Trade Center de Taipéi.La lista de exhibidores es abrumadora con presencia destacada de productores del país como Acer, ASUS, MSI o Gigabyte, y otros regionales como Samsung. Quitando Apple que no acude a ninguna de estas ferias (y que estará inmerso en su WWDC), lo más granado del sector tecnológico estará presente en la feria. La región es ya clave tanto en producción como en consumo, con China e India a la cabeza. ¿Qué esperamos ver en el Computex 2014? Mucho y bueno. No faltarán la exhibición de todo tipo de computadoras. De escritorio, AIO, portátiles, mini-PCs o tablets, además de todo tipo de componentes, otro de los puntos fuertes del Computex.Entre ellos destacarán los nuevos procesadores de Intel, con el lanzamiento de los Haswell Refresh Mobile; los Haswell Refresh 'K' con multiplicador desbloqueado; los tremendos Haswell-E de ocho núcleos; los Moorefield para tablets Windows y Android y seguramente un avance de los Broadwell que llegarán a finales de año.En cuanto a AMD, esperamos ver la nueva generación de APUs 2014 para escritorio y móviles en lo que es el punto fuerte de la compañía en procesadores. con todo, lo más interesante llegará del avance de AMD Skybridge,  un proyecto de “computación ambidiestra” que permitiría usar en la misma placa base, chips con arquitectura x86 y ARM.Los nuevos procesadores de Intel vienen acompañados de nuevos chipsets por lo que veremos gran cantidad de placas base de nueva hornada Z97 y H97 de los principales productores.Atención especial al nuevo estándar de memoria RAM DDR4, que apunta a disponibilidad comercial este mismo año y que es seguro presentarán en el Computex firmas como Samsung, Crucial, SK Hynix o AData. Otro punto de interés estará en las nuevas soluciones de almacenamiento, el auténtico cuello de botella de la computación actual y que espera superarse a base de nuevos formatos e interfaces. Las novedades más interesantes serán los modelos que se conectarán al bus híbrido SATA-Express y a las novedades de estado sólido como M.2 o NGFF, más pequeños y ligeros que una SSD o disco duro estándar de 2,5 pulgadas, y con mucho más rendimiento si se conectan a interfaces PCI-Express. En cuanto al apartado gráfico no esperamos novedades aunque tendremos todas las soluciones de AMD y NVIDIA en dedicadas, desde monstruos con doble núcleo como Titan o Vesubius, los modelos de gama de entrada o las más interesantes gama media en rendimiento/precio.Paramos aquí porque no terminaríamos de listar productos, chasis, fuentes de alimentación, productos de redes o los wearables en plena expansión de los que seguro veremos algunos en exhibición. Síguenos la semana próxima y verás lo mejor de este Computex 2014.
1 comentario59 shares
30/05/2014Juan Ranchal
Ocho categorías de productos que se venderán bien la temporada de fiestas

Ocho categorías de productos que se venderán bien la temporada de fiestas

La temporada de compras navideña está en marcha y a buen ritmo tanto en comercio físico como en comercio electrónico, según los datos en torno al Black Friday que inaugura la temporada. Pero ¿qué es lo más se va a comprar en tecnología?Nuestros compañeros de MuyCanal han intentado dar respuesta a la pregunta mediante un especial con los 8 categorías de productos que más atención van a recibir de los consumidores estas navidades.La mayoría los tenemos en mente, para regalo a terceros o para regalo propio y pasan por el sector del tablet que ya fue la estrella en 2012, smartphones pero de gama económica con el asalto del `móvil chino' tomando protagonismo, videoconsolas con el impulso del lanzamiento de las consolas PS4 y Xbox One, esos gadgets novedosos que están empezando a llegar al mercado como los relojes inteligentes, los innunerables accesorios o esas soluciones de conectividad que hacen falta en cualquier hogar o empresa.Hay más. Los televisores de nueva generación siguen siendo otra opción de compra estas navidades así como los lectores de libros electrónicos que tiene su mercado propio a pesar de la canibalización que llega de los tablets. De igual forma con el PC aunque la tendencia va por la versatilidad de los 2 en 1 y las pantallas táctiles que permiten convertirlos en tablets. Hay mucho más en el especial de canal que te recomendamos.
2 comentarios84 shares
17/12/2013Juan Ranchal
Livin’ la vida Google

Livin’ la vida Google

Hace un tiempo que publicamos en MuyComputer la guía básica de supervivencia para el 'anti-Google', una suerte de recomendaciones de alternativas para los servicios más populares de la compañía de Mountain View. La razón de hacer aquello fue mostrar que en Internet hay alternativas para todo, incluso para Google. Ahora bien, como dijimos entonces, Google ofrece de manera gratuita algunas de las mejores herramientas y servicios disponibles hoy en día.¿Se podría hacer al revés, es decir, en vez de renegar de todo lo que huela a Google, dejarse arropar por el manto del gigante de Internet al punto de no necesitar nada más? Es lo que vamos a ver hoy, siempre desde el punto de vista del usuario de PC, pues con Android en el mercado el ecosistema Google está bien cubierto en lo que a movilidad se refiere.De hecho, lo ideal para vivir una completa 'vida Google' sería que en el móvil llevases Android y que tu PC fuese un Chromebook, además de que, evidentemente, utilizases en tu día a día mayoritariamente servicios de la compañía. Pero no hace falta irse tanto al extremo, por lo que con un navegador web y una cuenta de Google vas servido. Eso sí, el navegador, Chrome.Anteriormente hemos visto cómo otros navegadores como Opera se llevan más bien de lo que parece con Google. Lo mismo -más, de hecho- se podría decir de Firefox. Sin embargo, es inútil negar la realidad, y donde mejor van los servicios de Google es en Chrome, que además dispone de extensiones exclusivas con las que utilizarlos sin conexión a Internet.Así pues, vamos a livin' la vida loca Google... Internet, correo electrónico y mensajería instantáneaSin importar el sistema operativo en el que te encuentres, una vez instado Chrome (Chrome, nada de Chromium, que hoy vamos de puristas de Google) e identificado con tu cuenta de Google, está de más decir que el buscador a utilizar será el de la casa, como lo está decir que Gmail y Google Talk serán, respectivamente, el correo electrónico y servicio de chat elegidos.La experiencia se puede mejorar instalando las siguientes extensiones:Google Mail Checker Send from Gmail Gmail sin conexión Chat de GoogleProductividad, ofimática y almacenamientoSeguimos completando necesidades a base de servicios de la casa y es el momento de nombrar a Google Calendar, que ofrece también Google Tasks como lista de tareas, por supuesto, con integración de ambos servicios con Gmail. Y como aquí todo va junto -ese es uno de los fuertes del ecosistema Google-, en Google Drive, con 5 GB de almacenamiento en la nube gratis, encontraremos Google Docs, la suite ofimática.De nuevo, la experiencia mejora mediante extensiones:Google Calendar (aplicación sin conexión) Google Calendar Google Calendar Checker Guardar en Google DriveMúsica, vídeo e imágenesVamos a cubrir más "pilares básicos" del usuario medio de PC con Google Music como audioteca y YouTube como videoteca. Como almacén de fotos deberíamos nombrar ahora a Picasa, pero, sinceramente, el servicio se siente bastante abandonado por parte de Google, por lo que una mejor opción es gestionar la colección de imágenes directamente desde Google+ (recuerda que, al igual que en YouTube, no tienes por qué compartir tus fotos con nadie; o compartirlas solo con quien tú quieras), que además dispone de un editor sencillo con el que retocar imágenes.En este punto no vamos a proponer extensiones, pues los servicios cumplen con su función perfectamente desde sus respectivos sitios, que en esencia se basan en almacenar y consumir contenidos.No se puede negar que las necesidades básicas de cualquier usuario de PC se pueden cubrir bastante bien sin salir del navegador y ecosistema de software en la nube de Google, que es a lo que nos hemos atenido. Porque desde el navegador se puedes hacer muchas más cosas de las descritas. En otras palabras, todos los servicios y extensiones recomendados en este artículo son oficiales, made in Google. Y hay muchos más.Como también hay muchas extensiones no oficiales pero realmente interesantes con las que ampliar el abanico de funciones de Chrome, así como servicios en línea abiertos a cualquier navegador web que complementarían en mucho la oferta. Por ejemplo, con juegos, algo a lo que no hemos hecho mención pero que también está creciendo en la Web (no, no hablamos de cutrejuegos en Flash).Recapitulando, el abecé de la informática no solo es factible sin salir de Google, sino que para muchos usuarios en todo el mundo puede suponer una alternativa de presente más que interesante, cuyo único hándicap es la crucial dependencia de disponer siempre o casi siempre de una conexión a Internet. Solo queda, pues, preguntarnos por qué el fenómeno Chromebook no ha calado de verdad. O, mejor aún, cuánto tardará en hacerlo, visto lo visto. Porque, a este respecto, Google no se rinde.¿Cuál es tu opinión? ¿Podrías "vivir" en la nube de Google? Recuerda que hablamos del usuario común y sus necesidades cotidianas.
3 comentarios36 shares
10/02/2013J.Pomeyrol
Steve Jobs y Sony: crónica del viaje que pudo cambiar la historia de Apple

Steve Jobs y Sony: crónica del viaje que pudo cambiar la historia de Apple

El 6 de junio de 2005, justo una hora antes del comienzo de la WWDC, en el cuartel general de IBM se recibió una llamada que adelantaba lo que Steve Jobs anunciaría en unos minutos: Apple abandonaba la plataforma PowerPC y adoptaba los últimos procesadores de Intel. ¿Qué hay detrás de esta modélica transición tecnológica? Hoy nos detenemos en un breve episodio que pudo cambiar para siempre la historia de la informática.Aunque con la perspectiva del tiempo es justo reconocer que fue una decisión acertada, el paso a Intel no se puede considerar como una decisión estratégica por parte de Apple. En la hoja de ruta había otras prioridades y, al menos hasta la llegada de los G5, la plataforma PowerPC parecía ofrecer potencia más que suficiente para las necesidades de la compañía en aquel momento. Al mismo tiempo que Apple utilizaba el mito del mergaherzio para defender su apuesta por PowerPC, un equipo secreto de ingenieros de la compañía desarrollaban versiones de OS X compatibles con la plataforma Intel, como desvelaría Jobs el día de la famosa keynote. La razón oficial para abandonar IBM PowerPC fue su bajo rendimiento por vatio respecto a los productos de la competencia, fundamental para un nicho de mercado que sería clave para el futuro de Apple: los portátiles.Mientras Apple mantenía el mito del megahercio, sus ingenieros se encargaban de que OS X fuera compatible con la plataforma IntelRemontémonos ahora hasta el verano del año 2000, en algún lugar de la costa Este norteamericana. Apple encargó a  John Kullman, un ingeniero que tras 13 años en la compañía había abandonado Cupertino para estar más cerca de su familia, una ambiciosa misión: conseguir que OS X pudiera ejecutarse en máquinas con procesadores Intel. El nombre en clave sería Proyecto Marklar y solo seis personas sabrían de su existencia durante el siguiente año y medio.  En las navidades de 2001, Joe Sokol, jefe del proyecto llamó a Kullman para pedirle los primeros resultados tangibles con vistas a justificar la inversión. John Kullman tenía tres equipos clónicos ejecutando Mac OS X, explicó a su jefe que tenía otros tres en casa funcionando y que se los proporcionaba un amigo que vendía equipos a medida. Dado que el proyecto debía mantenerse en secreto no podía pedir suministros a Apple así que se limitó a pedir equipos con hardware muy similar al que vendían en Cupertino.Cuando Joe Sokol vió en la pantalla de uno de aquellos PC la famosa manzana seguida del clasico "Bienvenido a Macintosh" hizo una pausa y dijo "ahora vuelvo". Unos minutos después regresó acompañado de Bertrand Serlet, vicepresidente de Ingeniería de software y pieza clave en el desarrollo de OS X desde Tiger, para que comprobará los avances del equipo con sus propios ojos y diera el siguiente paso.Serlet se limitó a observar la misma secuencia de arranque y comentó: "¿cuánto tiempo podrías tardar en hacer esto con un Sony VAIO?" John Kullman respondió un escueto "no mucho". Un tanto desconcertado, Serlet insistió: "¿cuánto es eso?¿dos o tres semanas" obteniendo de nuevo una respuesta sorprendente de Kullman "No. Dos o tres horas como mucho".¿Cuánto tiempo tardarías en ejecutar OS X en un Sony VAIO?Menos de diez minutos más tarde, los tres se encaminaron hacia una franquicia de la cadena Frys para comprar el mejor VAIO de la tienda. Sobre las 7:30 de esa tarde, el flamante portátil de Sony estaba ejecutando OS X sin ningún problema y, la mañana siguiente, el mismísimo Steve Jobs tomaba un avión a Japón para reunirse con el presidente de Sony.Es probable que tardemos bastante tiempo en saber qué dijo Jobs en aquella reunión y cual fue la reacción de Sony al ver a su mejor equipo ejecutando el sistema operativo de Apple. Jamás tendremos la certeza de qué hubiera pasado si Steve hubiera convencido a Sony de fabricar los portátiles con OS X o cómo habría reaccionado Microsoft. Lo que sí sabemos es que en enero de 2002, dos nuevos ingenieros comenzaron a trabajar en el Proyecto Marklar que comenzaron Kullman y Scheinberg, a los que se sumarían diez más y una buena cantidad de fondos en el mes de agosto.La decisión no tenía vuelta atrás y mientras a Jobs no le temblaba el pulso prometiendo un PowerBook G5 que jamás llegaría a presentarse, los chicos del Este afinaban el funcionamiento de OS X en ordenadores Intel. Aunque cuando comenzó 2005 el cambio de plataforma era casi un secreto a voces, Jobs se negó a dar explicaciones a sus socios de IBM hasta una hora antes de hacer público el abandono de PowerPC.Al día siguiente, Jobs cogió un avión para enseñarle OS X en un VAIO al presidente de SonyLa historia ha visto la luz de la mano de la mujer de su protagonista, Kim Scheinberg, que asegura que Bertrand Serlet tuvo una charla con su marido para dejarle claro que nadie debería saber jamás nada de esto. De repente, el modesto despacho que el matrimonio tenía en casa se preparó para cumplir las estrictas medidas de seguridad de Apple y se aseguraron de que no hubiera posibilidad de filtraciones, al menos hasta el anuncio oficial de la trancisión a Intel. El resto es la historia de cómo Apple se convierte en uno de los mayores fabricantes de ordenadores del mundo.
11 comentarios26 shares
26/06/2012Tomás Cabacas
Canon EOS 650D, mejorando lo presente

Canon EOS 650D, mejorando lo presente

La esperada Canon EOS 650D ya es oficial. La firma japonesa mantiene los 18 megapíxeles del modelo anterior, mejora su rendimiento de disparo en ráfaga e incorpora la primera pantalla táctil que vemos en una SLR. La Canon EOS 650D estará disponible en los distribuidores autorizados a finales de mes por precios que partirán de los 899 euros.Equipada con un sensor CMOS de tamaño APS-C y 18 megapíxeles de resolución, la nueva 650D seguirá siendo una de las mejores opciones para el aficionado avanzado. La incorporación del procesador Digic V le permite llegar a los 5 fotogramas por segundo mientras que el rango máximo de sensibilidad se mantiene en 12.800 ISO, que se puede forzar hasta 25.600 ISO.Uno de los aspectos más interesantes de la 650D será su sistema de enfoque híbrido. Aunque Canon no ha dado muchos detalles sobre su funcionamiento suponemos que montará sensores para mantener el enfoque por diferencia de fase cuando el espejo está levantado y así poder grabar con autofocus utilizando la pantalla, una propuesta similar a la de Nikon. Una réflex con pantalla de smartphone La Canon EOS 650D incopora una pantalla con panel de 3 pulgadas, 1 millón de píxeles y tecnología capacitiva. Así, solo necesitaremos los dedos para movernos por los menús, enfocar, activar el seguimiento a un punto determinado o hacer zoom con los dedos mientras revisamos nuestras fotografías.Por supuesto la nueva EOS mantiene todas las opciones de control manual para los usuarios más tradicionales, pero será muy interesante comprobar si Canon sabe sacarle partido a la posibilidad de personalizar gestos para acciones concretas o si la precisión de los ajustes es suficiente para el tipo de usuario al que va dirigida. Precio y disponibilidad La Canon EOS 650D estará disponible en tiendas a finales de este mes. El cuerpo se venderá por 899 euros, un kit con objetivo 18-55 por 999 euros y el paquete con el objetivo estabilizado 18-135 mm. llegará a los 1.249 euros.[gallery link="file" columns="3"]
4 comentarios44 shares
08/06/2012Tomás Cabacas
25 años de IBM OS/2, “un Windows mejor que Windows” (y II)

25 años de IBM OS/2, “un Windows mejor que Windows” (y II)

Verano de 1995. Mientras los responsables de marketing de Microsoft pagaban 14 millones de dólares a los Rolling Stones por utilizar la canción "Start me up" para el lanzamiento de Windows 95, en el cuartel general de IBM se preguntaban cómo era posible que, tras el importante esfuerzo realizado con OS/2 Warp, casi nadie hablara de ellos. Con este artículo cerramos nuestro especial sobre los 25 años de IBM OS/2 y analizamos los motivos que llevaron a uno de los mejores sistemas operativos de la historia al fracaso comercial.Ocho meses antes del lanzamiento de Windows 95, OS/2 Warp 3.0 se presentó como el primer sistema operativo en tener soporte para Internet integrado. Los usuarios solo necesitaban un módem y seguir un asistente gráfico para acceder a una primitiva Internet, todavía muy lejos de lo que conocemos hoy día. Una interfaz gráfica basada en objetos a años luz de Windows 3.11, multitarea real y la posibilidad de ejecutar aplicaciones de MS-DOS y Windows sin ningún problema eran los pilares de un auténtico hito del software para la época. Como algún lector habrá adivinado, el origen del término Warp es Star Trek, una serie de culto para muchos miembros del equipo de desarrollo. De hecho, ya se habían utilizado palabras de la serie en la organización interna del proyecto, así que consideraron que podía ser buena idea olvidarse de la numeración por versiones y acercarse un poco más al usuario final.OS/2 Warp se vendía en dos versiones diferenciadas por el color de sus cajas: la roja estaba diseñada para usuarios finales y era más económica, mientras que la azul se reservaba para empresas y profesionales. Entre sus novedades más destacadas estaban un mayor apoyo al hardware, incluyendo cientos de drivers de serie e información para los desarrolladores, mejor rendimiento con contenidos multimedia y IBM Works, una completa suite de ofimática, incluida e integrada con el sistema.El nuevo sistema operativo de IBM (ya sin Microsoft) necesitaba, como mínimo, un procesador 386SX a 16 MHz y 4 Mbytes de RAM, lo mismo que Windows 3.11. Además de software nativo, era capaz de ejecutar programas de MS-DOS, OS/2 16 bits, Windows 2.x y Windows 3.x (incluyendo aplicaciones de 32 bits). Por primera vez en mucho tiempo, OS/2 podría ejecutarse en la mayoría del máquinas del mercado.En lo que fuentes internas de IBM calificaron como un alarde de soberbia, Microsoft ofreció en 1994 un contrato en los mismos términos que Compaq (primer fabricante de PCs en la época) para que los ordenadores de IBM incluyeran una licencia de Windows 95, siempre que enterraran el proyecto OS/2 para siempre. El gigante azul declinó la oferta.  A pesar del esfuerzo publicitario de IBM por acercar OS/2 Warp al usuario final con campañas multimillonarias las ventas no respondieron como se esperaba. Por fin, el 24 de agosto de 1995, una exultante Microsoft presentaba al mundo entero Windows 95 rodeado de un despliegue de marketing sin precedentes que supuso unos 300 millones de dólares de la época. La empresa de Redmond llegó a pagar para iluminar el Empire State con el logotipo de Windows y regaló el diario The Times a 1,5 millones de británicos comprando una tirada el doble de la habitual en aquellos días.Microsoft tenía preparada una última sorpresa para IBM. La compañía de Gates no autorizó licencias OEM de Windows 95 para equipos de IBM hasta 15 minutos antes del lanzamiento oficial. Por supuesto HP, Compaq y el resto ya tenían sus equipos con el nuevo Windows listos para vender.En solo cinco semanas, el nuevo sistema operativo de Microsoft había vendido más de 7 millones de copias y la plataforma Windows copaba el 90% del mercado. IBM apostó por una huida hacia delante y mantuvo su inversión en OS/2, mejorando con nuevas versiones cada pocos meses mientras esperaba que la tormenta desatada por Redmond pasará lo más rápido posible.A finales de ese año, IBM distribuye en el Reino Unido una demo gratuita de OS/2 en CD-ROM que, en realidad, contenia el sistema operativo completo y sin restricciones. Aunque los competidores lo tacharon de estrategia comercial para intentar ganar cuota de mercado el tema no terminó de aclararse nunca y los números tampoco mejoraron sustancialmente. Poco después repetiría el intento en Australia.Aunque parece obvio que OS/2 era técnicamente superior a Windows 95 nunca funcionó en el mercado de consumo, si bien es cierto que el potencial de IBM en la empresa ayudó a su implantación en sectores como la banca, energéticas y automoción. En 1995 IBM compra Lotus SmartSuite para intentar competir con Microsoft Office, la suite ofimática de Microsoft.Con una cuota del mercado tan pequeña los desarrolladores dieron la espalda a IBM y centraron sus esfuerzos en el nuevo Windows, una auténtica máquina de hacer dinero. Sin aplicaciones y con cientos de marcas que vendían sus ordenadores con Windows 95 preinstalado, OS/2 Warp estaba muy lejos de ser un rival para Microsoft en el mercado de consumo.En 1996 se presenta OS/2 4.0, nombre en clave Merlin, en lo que se considera la última gran revisión del sistema operativo de IBM. Mejoraba todo lo visto en OS/2 3.0, incluyendo un proceso de instalación mucho más sencillo, sorporte Java y un avanzado sistema de reconocimiento de voz integrado en el sistema. De nuevo, IBM intentó darlo a conocer y ganar usuarios a toda costa, pero en pocos meses se dieron cuenta que el principio del fin para OS/2 había comenzado.IBM ofreció soporte a OS/2 4.0 hasta el 31 de diciembre de 2006. La última versión que se lanzó fue la 4.52, presentada en 2011 para sistemas de escritorio y servidores. ¿Tiene futuro OS/2? Muchos usuarios esperan que IBM libere gran parte del sistema como código libre, aunque ya lo pidieron en 2005 y 2007 obteniendo sendas negativas. Entre las justificaciones oficiales mantienen que OS/2 contiene código propietario de Microsoft, entre otros.Por otro lado, también debemos hablar eComStation (o eCS), un sistema operativo para PC desarrollado por Serenity Systems  y basado en OS/2 Warp 4.5; incorpora una nueva interfaz gráfica y mejoras importantes añadidas a posteriori, como el soporte para el sistema de archivos JFS. No queremos cerrar este especial sin mencionar a OSFree, un intento de la comunidad de crear un OS/2 Warp 4 partiendo de cero y licenciado bajo GNU GPL. Podéis descargarlo en su web oficial.Primera parte | 25 años de IBM OS/2, “un Windows mejor que Windows” (I)
22 comentarios89 shares
04/04/2012Tomás Cabacas
25 años de IBM OS/2, “un Windows mejor que Windows” (I)

25 años de IBM OS/2, “un Windows mejor que Windows” (I)

El 2 de abril de 1987 IBM celebró dos conferencias de prensa idénticas en Nueva York y Miami en la que comunicaba sus planes de revolucionar el mundo de la informática. La aventura de OS/2, un sistema operativo destinado a ser el sucesor del mítico MS-DOS, acababa de comenzar. Iniciamos una serie de dos artículos en los que repasaremos la historia de un momento clave en el desarrollo de la industria y que demuestra perfectamente hasta qué punto es imprevisible el mercado tecnológico.Los años 80 fueron buenos tiempos para IBM. La compañía dominaba con comodidad el mercado del hardware  y cada año presentaba equipos más rápidos y potentes, pero la evolución del software no seguía el mismo ritmo. A priori, la idea de IBM y Microsoft era presentar un sistema operativo moderno, con capacidades multitarea y sin las limitaciones clásicas de MS-DOS que estaban heredando las primeras versiones de Windows en aras de mantener la retrocompatibilidad. En agosto de 1985, las dos compañías comenzaba a trabajar en el proyecto CP/DOS, germen de OS/2.OS/2 1.0 era un sistema operativo de 16 bits y diseñado para trabajar con microprocesadores 286. Desde la primera revisión, permitía ejecutar varias sesiones al mismo tiempo gracias a un sistema de multitarea que dividía los procesos por importancia. Bastaba pulsar la combinación de teclas Control + Esc para pasar de una a otra. Además, OS/2 podía utilizar memoria virtual para mejorar el rendimiento del software cuando no había suficiente memoria física disponible, una herramienta que sería clave en el futuro del software.Hasta la revisión 1.1, presentada en octubre de 1988, no llegaría una interfaz gráfica (Presentation Manager, nombre en clave Winthorn) que usaba el ratón y un moderno sistema de archivos llamado HPFS (High Performance File System), destinado a complementar al clásico FAT que casi todos conocemos.A pesar de todas sus novedades, OS/2 no terminaba de despegar y a finales de 1989 había menos de 200.000 máquinas funcionando con el sistema operativo. Sus grandes requisitos de memoria (un mínimo de 4 Mbytes para funcionar con fluidez) chocaban con un mercado donde el estándar no pasaba del megabyte y el precio de la licencia (325$ por 99$ de MS-DOS) tampoco ayudaron demasiado.Conscientes de la necesidad de pasar a 32 bits, Microsoft ofreció a IBM desarrollar la versión 2.0 en 32 bits con el objetivo de aprovechar los nuevos 386, que funcionaron en el mercado mucho mejor de lo esperado. IBM insistió en perfeccionar la de 16 bits (de nuevo, retrocompatibilidad) y en la necesidad de soportar 286, dañando gravemente la relación con una Microsoft que comenzó a trabajar en paralelo con Windows. Posteriormente, un joven Ballmer definiría el proyecto OS/2 como "un callejón sin salida".Esta decisión sería clave para el futuro de OS/2: hasta la versión 2.1, presentada en abril de 1992, el sistema operativo de IBM funcionaba en modo protegido de 16 bits, en lugar de aprovechar las ventajas de los 386 y el modo virtual para 8086, clave para ofrecer buen rendimiento con aplicaciones MS-DOS. La versión OS/2 1.3, que se presentaría en 1991, mantenía la limitación máxima de 640 Kbytes de memoria en modo DOS mientras que Windows 2.1 ya incluía posibilidades de emular memoria (EMS) y ejecutar varias tareas de software MS-DOS. Uno de los mayores temores de IBM era qué estaba haciendo Microsoft con los millones de dólares invertidos en el proyecto y hasta qué punto se estaban desviando a Windows. Los retrasos en el desarrollo eran constantes y IBM fue responsable de todas las actualizaciones de OS/2, dejando la 3.0 a Microsoft. Finalmente, la compañía de Bill Gates decidió que NT OS / 2 3.0  sería Windows NT, abandonando el proyecto original.Quizás el problema de base eran las radicales diferencias en el modo de trabajo de las dos empresas. En Microsoft se trabajaba en grupos pequeños, sin mucha burocracia y apostando por desarrollos que se entregaban lo antes posible para pulirlos a posteriori (se habla de 2 testers por cada 41 programadores). IBM, en cambio, conservaba la incercia de los gigantes de la industria y quería procesos controlados y garantias de estabilidad en todo momento.En marzo de 1988 Apple Computer demanda a Microsoft por infracción del copyright de su sistema Macintosh. Según Apple, Windows 2.0.3 infringía 13 de sus patentes y rompía los acuerdos a los que habían llegado 3 años antes.  Algunos analistas aseguran que el verdadero temor de la empresa de Cupertino no era tanto Windows como Presentation Manager, que ya habían visto en funcionamiento y el potencial de su archienemigo, IBM. Si Microsoft perdía el juicio, tendría que retirar algunos elementos clave de sus interfaces gráficos. El resto es historia, Microsoft gana y el día después de la sentencia sus acciones duplicaron su valor.Sin el apoyo de los de Redmond, IBM tardó 2 años más de lo previsto en lanzar un nuevo OS/2, tiempo que fue aprovechado por Microsoft para ir consolidando Windows presentando hasta la versión 3.0. Reconocido por los analistas como uno de los sistemas más estables de la historia, OS/2 2.0 tenía todo lo bueno de versiones anteriores sobre un núcleo de 32 bits. El nuevo Workplace Shell ofrecía un entorno gráfico orientado a objetos impresionante, muy lejos de lo que ofrecía Microsoft en ese momento.OS/2 2.0 se vendía como "un Windows mejor que Windows". El sistema operativo estaba diseñado para aprovechar al máximo los potentes 386 y 486, podía realizar multitarea real y ,a priori, contaba apoyo de grandes del software como Lotus, Wordperfect, Novell o Borland.Unos meses después IBM anunciaba que OS/2 había vendido dos millones de copias desde su lanzamiento, poco antes de Windows 3.0 alcanzara esa cifra en solo seis meses. Gran parte del éxito de Microsoft pasaba porque millones de equipos nuevos lo incluían como sistema operativo por defecto, consiguiendo una cuota del mercado del 66% (OS/2 no llegaba al 1%)Uno de los grandes problemas de OS /2 fue resuelto en esta versión: las limitaciones del 80286 obligaban a ejecutar un solo programa MS-DOS a la vez y era necesario darle control sobre todos los recursos. De esta forma cuando la aplicación fallaba, el ordenador se colgaba. Con la 2.0 se recurre a la virtualización desde 386 (modo V86) para crear un entorno seguro y estable, que el usuario podía configurar según las necesidades de cada aplicación.Unos requisitos de hardware demasiado elevados y unas aplicaciones que no terminaban de llegar marcarían para siempre el destino de OS/2. Los desarrolladores tenían que elegir porque los costes de programar en multiplataforma eran demasiado elevados y terminaron apostando por la amplia base de usuarios de Windows, obligando al gigante azul a apostar por desarrollos propios y tirar de cheque para tener software en su plataforma.IBM no se rindió. En noviembre de 1994 presentaron OS/ 2 3.0 (llamado OS/2 Warp) acompañado de una potente campaña publicitaria que intentaba acercar el producto al usuario final. Con gran potencial multimedia, una solución para configurar la conexión a Internet de forma sencilla y varias aplicaciones instaladas de serie (IBM Works entre ellas) ofrecía muchas funciones que no llegarían a Windows varios años más tarde. La estabilidad de OS/Warp era tal que se convirtió en el sistema operativo de varios cajeros automáticos de todo el mundo. Mientras, en Redmond ultimaban los detalles del esperado Windows 95.Segunda parte |  25 años de IBM OS/2, “un Windows mejor que Windows” (y II) 
17 comentarios84 shares
02/04/2012Tomás Cabacas
¿Qué futuro le espera a Android?

¿Qué futuro le espera a Android?

La tecnología avanza muy deprisa, y ya se siente el nuevo cambio: unificar experiencias. Es lo que pretende Microsoft con Windows 8 y su nueva interfaz Metro, también lo que lleva tiempo acariciando Apple con iOS, sin llegar a concretar todavía. Unificar experiencias entre los dispositivos móviles, táctiles, y los sistemas de sobremesa tradicionales.Canonical también está haciendo avances interesantes con Ubuntu. De hecho, los tres sistemas operativos para PC más utilizados del mundo, Windows, Mac OS X, Ubuntu, y sus respectivas compañías, parecen mirar en la misma dirección, con distintos compases. ¿Qué pasa entonces con Android?Google está triunfando como nadie en el sector smartphone con Android, que también se extiende con buena salud por las tablets. Incluso se han visto netbooks con Android, y hay más, con el proyecto Android@Home, que plantea un hogar futurista gobernado por al androide verde.Entonces, si los vientos soplan por la unificación de experiencias y los principales actores están en ello, ¿hasta que punto tiene Android la supervivencia asegurada quedándose solo en el segmento móvil? Si dentro de unos años los usuarios podrán elegir usar iOS, Metro o Unity en la calle y en casa, ¿quién va a querer mutilar su experiencia utilizando Android en lo móvil y otra cosa en el hogar?Tal vez, si la iniciativa de Android-x86 llegase a buen puerto... Pero cómo hacerlo, si es externa a un Google que sigue empeñado en intentarlo con los Chromebooks, que no convencen. Será interesante ver qué depara el futuro a medio plazo.
8 comentarios54 shares
12/03/2012J.Pomeyrol
El dominio del PC se acerca a su fin

El dominio del PC se acerca a su fin

No es un secreto para nadie informado que la industria se encuentra en una disyuntiva que se lleva fraguando desde hace algunos años. De los equipos de sobremesa a los portátiles, de éstos a la nueva explosión de dispositivos móviles, smartphones y tabletas. Todo ha cambiado, y sigue haciéndolo. No hay pausa en la evolución tecnológica.Así, no es difícil aceptar el titular de este artículo sin más, porque cualquiera puede ver la situación que hay. Lo demuestra la impresionante racha de éxitos que acumula Apple a sus espaldas, también la caída que afronta HP en un mercado que hasta hace muy poco le daba grandes alegrías. Y son solo dos ejemplos.Haciendo un repaso rápido, desde los primeros años de computación doméstica con el Apple II a la "revolución Android" de estos días, es sencillo comprobar cómo ha evolucionado la industria en todo este tiempo.Lo difícil es acertar con tino lo que viene, porque posibilidades hay unas cuantas: Mac OS y iOS camino de la unificación, Microsoft presentando un Windows 8 con un objetivo similar; incluso Canonical se atreve a sorprender con sus planes para Ubuntu y Android. O Google, que se adelantó al futuro con Chrome OS, tal vez con un modelo de producto no del todo acertado.Lo único claro es que las cosas están -continúan- cambiando, por lo que dentro de cinco años... ¿qué tendencia se impondrá? Todo apunta a la movilidad y la nube, a pesar de que los sistemas tradicionales de escritorio no se van a ir a ningún sitio, por lo menos en bastante tiempo. Y si no que se lo digan a Windows Vista y Windows 7.Pero pocas certezas más se pueden enumerar. A partir de este punto solo hay preguntas sin respuesta, cábalas a lo sumo.Porque ¿qué sentido tendrá en un futuro cercano disponer de consolas portátiles cuando smartphones y tabletas aportan mucho más?  ¿Y una 'torre' de escritorio, cuando un móvil de última generación -de y en estos momentos- es prácticamente el verdadero ordenador personal de la mayoría de la gente? Hagan sus apuestas.
10 comentarios48 shares
23/02/2012J.Pomeyrol
50 años de Spacewar!, el primer videojuego de ordenador

50 años de Spacewar!, el primer videojuego de ordenador

Esta semana se cumplen 50 años de la creación del primer videojuego para ordenadores, Spacewar!. Dejando a un lado el debate de si realmente se puede considerar como el primero (todo depende de donde se ponga la barrera entre lo que se considera videojuego y lo que no) no cabe duda que fue un paso fundamental para la industria del ocio electrónico.En la primavera de 1961, había un gran revuelo en el departamento de electrónica del MIT: el PDP-1, uno de los primeros ordenadores fabricados en serie, acaba de ser instalado. Incluso antes de que llegara, un grupo de jóvenes apasionados por la informática llevaban tiempo pensando cómo sacarle partido y escribiendo sus programas en papel. En solo unos meses, consiguieron desarrollar software para reproducir música o realizar cálculos matemáticos.Un día el profesor Jack B. Dennis, responsable del área, recibió la visita de tres estudiantes que querían desarrollar un proyecto en el PDP-1:  Steve “Slug” Russell, Martin “Shag” Graetz y Wayne Wiitanen habían diseñado un juego de naves espaciales para dos jugadores que funcionaba con cálculos vectoriales. A pesar de que no eran estudiantes del departamento, Dennis les facilitó el acceso porque le fascinó la idea de los chicos y la posibilidad de probar las capacidades del ordenador.Tras 200 horas picando código, Steve Russell ejecutó una primera versión de Spacewar!. El juego, inspirado Lensman (una serie de ciencia ficción de EE. Smith), enfrentaba a dos naves que tenían que destruirse, al tiempo que intentaban escapar del campo gravitatiorio que generaba una estrella. Las naves tenían munición y combustible limitados, portales al hiperespacio para viajar a una posición aleatoria y posibilidad de controlar la rotación de la nave. En febrero de 1962, Spacewar! estaba terminado.El código de Spacewar! se añadió al que venía por defecto con el ordenador y Dan Edwards, Peter Samson, y Martin Graetz estuvieron trabajando para añadir nuevas características, como la posibilidad de eliminar la estrella o añadir el concepto "viento espacial" que modificaba el comportamiento de la nave. El juego se popularizó rápidamente (el código fuente era libre) y Digital Equipment, fabricante del PDP-1, terminó por incluir el código del juego en el ordenador y en las versiones PDP-10 y PDP-11.Visto con perspectiva, el trabajo desarrollado con Spacewar! es increíble y más si tenemos en cuenta las limitaciones de las máquinas aquella época. Sus creadores utilizaron cálculos complejos (hasta 100.000 por segundo) para representar las trayectorias de las naves y todas las fuerzas del juego. Para simplificar y reducir los recursos necesarios, recurrieron a fórmulas trigonométricas.Aunque 10 años antes ya había juegos electrónicos como OXO (considerado por muchos el primer videojuego), no cabe duda que Spacewar! incluye todos los patrones del videojuego tal y cómo lo conocemos hoy día. Más allá de títulos o récords, el mérito de estos jóvenes es toda una hazaña que siempre merece la pena recordar.El código en ensamblador de Spacewars! se puede encontrar en Internet, así como las rutinas que utilizaron para acelerar las operaciones de cálculo que necesitaba o versiones jugables online. En el Museo de Historia de los ordenadores de Mountain View (California, EE.UU.) todavía hay un PDP-1 que funciona. Por supuesto, incluye una copia de Spacewar!
2 comentarios47 shares
13/02/2012Tomás Cabacas
CES 2012, la primera feria de electrónica del año

CES 2012, la primera feria de electrónica del año

Hoy día 9 de enero comienza CES 2012, una de las ferias tecnológicas más importantes del mundo y que marca la tendencia que seguirá el mercado durante el resto del año.Este 2012 el protagonismo será para ultrabooks, televisores inteligentes con tecnología OLED y 3D, nuevas generaciones de procesadores Intel, los sistemas operativos Windows 8 y Android 4.0, las nuevas tarjetas gráficas AMD, consolas de videojuegos, info-entretenimiento para el automóvil y como no, tablets y smartphones que seguirán impulsando el consumo electrónico en 2012.El Consumer Electronics Show se celebrará del 10 al 13 de enero en Las Vegas. Ocupará 167.000 metros cuadrados de exposición, contará con 2.700 exhibidores y superará los 140.000 visitantes. Salvo Apple que no participa en este tipo de ferias e incluso renunció a estar presenta de forma oficial en la exclusiva Macworld 2009, no habrá gran compañía que se precie que no participe de una forma u otra en la feria.Steve Ballmer, CEO de Microsoft, será el encargado de realizar el discurso de apertura previo al comienzo del CES, toda una tradición desde hace catorce años. Sin embargo, siguiendo los pasos de Apple, la compañía cerrará su idilio con el CES y 2012 será el último en el que Microsoft disponga de stand propio y realice la keynote inaugural.En todo caso el CES seguirá siendo referencia mundial por la cantidad de fabricantes y novedades, y de la misma Microsoft esperamos presente la beta de Windows 8. Además, están confirmadas conferencias de Eric Schmidt de Google, Brian Dunn de Best Buy, Paul Otellini de Intel, Robert Kyncl de YouTube, Paul E.Jacobs de Qualcomm, Ursula Burns de Xerox, responsables de Verizon o Ericsson y ejecutivos de compañías automovilísticas como Ford y Mercedes Benz.Con ser importante Windows 8 por su trascendencia en la industria, será un simple aperitivo, ya que si en 2011 los tablets fueron los dominadores absolutos de la feria, este año compartirán protagonismo con un buen número de productos, algunas novedades y actualizaciones de otros ya conocidos.Entre ellos destacarán los ultrabooks, un concepto impulsado por Intel para nombrar la nueva generación de ordenadores portátiles ultraligeros combinando rendimiento y movilidad. Ultraportátiles para competir con los MacBook Air de Apple y con el auge de los tablets.En el sector de ordenadores también podremos ver los nuevos portátiles de bajo coste y tamaño netbooks, motorizados por los Cedar Trail, la última generación de chips Atom recientemente presentados.Otro de los productos destacados serán los nuevos televisores inteligentes. Por un lado por la presentación de los modelos de gran formato (55 pulgadas) con paneles de tecnología OLED que llegarán de la mano de los gigantes del sector LG y Samsung y por otro, por el impulso que está recibiendo las plataformas televisivas de Apple y Google, esta última con fichaje reciente para la causa de LG Electronics Inc. Ultra resoluciones 4K y visionado de las tres dimensiones sin gafas polarizadas serán otras funciones destacadas en los modelos más avanzados.En cuanto a microprocesadores, Intel mostrará músculo en el CES, y al lanzamiento de los Cedar Trail para netbooks, podemos añadir la presencia de equipos de sobremesa gama entusiasta con los Sandy Bridge-E, estaciones de trabajo con los Xeon E5 o la presentación de los Ivy Bridge.La presentación de nuevos modelos de gráficas dedicadas de AMD y los equipos con la Radeon 7970 la más potente del mercado de consumo, será otro punto de interés especialmente para los jugadores en PCs. No faltarán las presentaciones en consolas de videojuegos con la PS Vita recién lanzada en Japón como protagonista junto a la Wii U que llegará al mercado en los próximos meses y quizá algún anuncio bomba de Microsoft o Sony en cuento a las futuras Xbox 720 o PlayStation 4.Cambiando completamente de tercio, la presencia en el CES con dos conferencias magistrales destacadas de altos responsables de Ford y Mercedes Benz, muestran la importancia de la feria también en los sistemas de info-entretenimiento en el automóvil, con desarrollos casi de ciencia ficción.Una de las sorpresas de la feria llegará de la presencia de Canonical, la compañía detrás de la popular distribución GNU/Linux Ubuntu y que acudirá por primera vez al CES para impulsar la distro, sus servicios basados en la nube, y “un exclusivo concepto de diseño” del que no se han dado más datos.Para el final y como no, tendremos tablets y smartphones en gran cantidad, confirmando que son dos de los grandes motores de la tecnología de consumo actual. A destacar la presencia de prototipos con los nuevos chips Tegra 3 de NVIDIA con arquitectura ARM y cuatro núcleos de procesamiento, que será el motor para los dispositivos móviles de gama alta en este 2012.Con Apple fuera de la feria y RIM en horas bajas, los móviles inteligentes y tablets con la última versión del sistema operativo de Google Android 4.0 Ice Cream Sandwich serán lo más exhibido de la feria, con un prototipo destacado como puede ser el Galaxy S III de Samsung y sin olvidar al Nokia Lumia 900, máximo exponente aunque no el único Windows Phone que podrá verse en la feria.¿Y esto será todo? No, no… domótica y hogar digital, salud y tecnología, cloud computing, robótica o seguridad completarán un CES 2012 que como de costumbre seguiremos a fondo desde MuyComputer y MuyComputerPro. ¡No te lo pierdas!
1 comentario19 shares
09/01/2012Jesús Maturana
[ ]