IBM » MuyComputer
[ IBM ]
IBM ha desarrollado un prototipo de procesador de 50 qubits

IBM ha desarrollado un prototipo de procesador de 50 qubits

La computación cuántica es un sector lleno de posibilidades sobre el que ya os hemos hablado en numerosas ocasiones y dentro del mismo IBM es uno de los grandes, una posición que ha reafirmado tras desarrollar un nuevo prototipo de procesador de 50 qubitsEn la informática tradicional se utilizan bits, un sistema de código binario que puede representar valores de 0 y 1. Por contra en la computación cuántica se utilizan qubits (cúbit en castellano), un sistema que va más allá ya que éstos pueden adoptar ambos valores, es decir no se limitan a adoptar uno u otro sino que pueden combinarlos.El desarrollo de ese nuevo procesador de 50 qubits es un avance importante ya que hasta hace nada IBM estaba desarrollando soluciones de 5 qubits, y la propia Intel nos sorprendió recientemente con una solución de 17 qubits.Dario Gil, vicepresidente de inteligencia artificial en IBM, ha confirmado que también disponen de un procesador de 20 qubits que estará a disposición de sus clientes próximamente y ha comentado: "Nuestra máquina de 20 qubits obtiene el doble de tiempo de coherencia con un promedio de 90 microsegundos, en comparación con generaciones anteriores de procesadores cuánticos que registraban promedio de 50 microsegundos. También está diseñado para escalar fácilmente; el prototipo de 50 qubits tiene un rendimiento similar. Nuestro objetivo con la experiencia de Q de IBM y nuestro programa comercial es colaborar con nuestra comunidad extendida de socios para acelerar el desarrollo de soluciones cuánticas que permitan marcar la diferencia y resolver problemas reales que importan". Os recordamos que en computación cuántica no sólo importa el tiempo como medida de rendimiento sino también la precisión y la coherencia de los resultados, un tema que ya tuvimos ocasión de ver en este artículo.Más información: Neowin.
1 comentario2 shares
10/11/2017Isidro Ros
ThinkPad 25 Aniversario, 10 aspectos de ThinkPad que quizá no conozcas

ThinkPad 25 Aniversario, 10 aspectos de ThinkPad que quizá no conozcas

ThinkPad 25 Aniversario es una edición especial que Lenovo ha creado para celebrar el vigésimo quinto aniversario del lanzamiento de la mítica marca de portátiles original de IBM.El ThinkPad 25 Aniversario es un portátil de 14 pulgadas actualizado al hardware actual, con procesador Intel Kaby Lake, SSD y gráfica dedicada GT 940 MX de NVIDIA. Su precio es de 1.899 dólares. Bastante inferior a los 4.350 dólares del original (7.589 dólares de valor actual).Su mayor valor no es su hardware sino la recuperación de la esencia del modelo original con un modelo diseñado tras las respuesta de 13.000 personas que respondieron a la encuesta solicitada por Lenovo. Una esencia mantenida en:El acabado en negro y rojo El teclado en siete filas El trackpad La tecla azul de "enter" Control de volumen dedicado El “pestillo” para mantener el portátil cerrado La pantalla en formato 4:3 El logotipo multicolor, salvo el nombre de IBM lo más parecido al originalEsto es lo conocido del nuevo modelo, pero hay otros aspectos generales de la marca ThinkPad que quizá no conozcas y que han recordado en Mashable:El diseño del ThinkPad está inspirado por la caja bento japonesa. El logotipo de ThinkPad se posiciona de forma asimétrica en las computadoras portátiles a propósito. Más específicamente, en un ángulo de 43 grados exactos, no 45 grados como piensa la mayoría de la gente. El famoso trackpoint "rojo" no es oficialmente rojo, es magenta. El caucho utilizado para el trackpoint original fue el mismo tipo de caucho utilizado para fabricar las ruedas de las montañas rusas. El ThinkPad 700C, el primero producido por IBM en 1992, fue nombrado internamente como "Nectarina". El 700C tenía un procesador de 25 MHz. Los ThinkPads actuales tienen un procesador de 2,8 GHz, aproximadamente 112 veces superior en fuerza bruta. En 1993, IBM produjo la ThinkPad 555BJ, que tenía una impresora real incorporada. Hay grandes clubes de fans de ThinkPad en todo el mundo, desde Japón a Indonesia. ThinkPad vendió la unidad 100 millones en 2014. El nombre de ThinkPad se inspiró en los blocs de notas de bolsillo que usaban los empleados de IBM y tenían el lema "Think" en el frontal.
1 comentario1 shares
20/10/2017Juan Ranchal
IBM avanza en computación cuántica con nuevo récord en simulación

IBM avanza en computación cuántica con nuevo récord en simulación

La computación cuántica será el próximo gran salto tecnológico y en su desarrollo están trabajando las principales compañías. IBM es una de las destacadas con un centro de investigación T.J. Watson Research Center de Nueva York, donde se cuece la revolución que nos espera para las próximas décadas.La semana pasada han publicado en Nature el último avance, la simulación exitosa de una molécula de hidruro de berilio con una máquina IBM Q de siete qubits. Es la primera vez que se consigue y ya tiene el récord como simulación de la molécula más grande bajo computación cuántica.Una muestra de sus posibilidades en el ámbito científico, con simulaciones que tienen un número de variables tan grande que supera la potencia de cálculo de los superordenadores actuales.Como sabes, frente a la arquitectura de la computación tradicional capaces de adoptar valores de "1" o "0", la información en computación cuántica se almacena en qubits (bits cuánticos) que pueden adoptar simultáneamente ambos valores (superposición).Un ordenador cuántico universal podrá programarse para realizar cualquier tarea de computación y será exponencialmente más rápido que los sistemas actuales  para un gran número de aplicaciones científicas y de negocio. No será fácil porque hay importantes problemas de base a resolver, como los factores de interferencia que influyen en la capacidad de control y la fiabilidad de los qubits, tales como defectos de la temperatura, el electromagnetismo y el material.IBM prevé que durante la próxima década ya habrá disponibles procesadores de tamaño medio de entre 50-100 qubits. Se calcula que un ordenador cuántico de tan solo 50 qubits hará palidecer a cualquier superordenador actual del top-500 mundial.Las primeras máquinas comerciales bajo computación cuántica llegarán al mercado para el sector científico y corporativo. Faltan décadas para que usemos este tipo de máquinas en un escritorio de consumo, pero es obvio que se trata de una tecnología con un potencial enorme que cambiará todo lo conocido en computación.
0 comentarios2 shares
18/09/2017Juan Ranchal
IBM y Sony desarrollan una cinta magnética de 330 TB

IBM y Sony desarrollan una cinta magnética de 330 TB

Sony ha confirmado el desarrollo conjunto con IBM de una cinta magnética con una capacidad de almacenamiento de 330 TB. Para que podáis entender sin problemas lo impresionante que resulta esa cifra os recordamos que 1.024 GB son 1 TB, y que los discos duros de consumo más utilizados son de 2 TB.Dicha cinta magnética tiene una construcción especial que le permite almacenar la friolera de 201 Gb (gigabits) por pulgada cuadrada (6,45 centímetros cuadrados) sin comprimir, otro dato importante ya que gracias a esa enorme densidad ha sido posible crear una unidad que no sólo puede almacenar 330 TB, sino que además cabe en la palma de la mano.El cartucho que han creado puede almacenar hasta 1.000 metros de cinta y supone toda una revolución en el sector, ya que tiene una capacidad de almacenamiento máxima muy superior a la que ofrecen las soluciones equivalentes que se comercializan actualmente.Puede que hablar de cinta magnética en pleno siglo XXI os suene extraño, pero lo cierto es que se ha mantenido como una solución de almacenamiento muy importante en el sector profesional, sobre todo por su buena relación capacidad-coste.Hoy por hoy las soluciones de almacenamiento basadas en cinta magnética se mantienen como la mejor opción para aquellas empresas que necesitan almacenar grandes cantidades de datos que no van a ser movidos durante largos periodos de tiempo. Esto implica que no es viable dentro del mercado de consumo general.Como podéis ver en el vídeo la solución anterior que lanzaron en 2015 tenía una capacidad máxima de 220 TB.Más información: SlashGear.
5 comentarios5 shares
02/08/2017Isidro Ros
IBM presenta el primer chip de 5 nm mundial

IBM presenta el primer chip de 5 nm mundial

IBM, en colaboración con Samsung y GlobalFoundries, ha dado a conocer el primer chip de 5 nm mundial. Un proceso de fabricación increíblemente reducido, que debe permitir en el futuro desarrollos más potentes, más pequeños y con menos consumo, además de mejorar los costes de producción de semiconductores.La mejora de los procesos tecnológicos de producción ha sido una constante los últimos años. Intel fue el primero de la industria en estrenar los 14 nanómetros en la plataforma Broadwell para ordenadores y recientemente, Samsung ha ganado la carrera de los 10 nanómetros con chips móviles como el Exynos 8895 y el Snapdragon 835, si bien no han cumplido con la regla de doblar la densidad de transistores.El chip de 5 nm de IBM superará a todos los anteriores, aunque de momento es un mero anuncio de su desarrollo en colaboración con Samsung y GlobalFoundries. Si se cumplen las previsiones del gigante azul, será el primero del mercado bajo este proceso basado en GAAFETs y litografía ultravioleta extrema o EUV.Dicen que GAAFETs es la siguiente evolución de FinFETs, un método tecnológico que permitió abandonar la típica colocación de transistores de forma plana (2D) y así poder pasar a los 14 nm e inferiores, pero que impide según IBM bajar de los 7 nm. Su densidad es simplemente alucinante: 30.000 millones de transistores en un chip de 50 milímetros cuadrados (aproximadamente el tamaño de una uña), frente a los 20 mil millones de transistores de un chip de 7 nm de tamaño similar .También importante la mejora del proceso litográfico. El chip de 5 nm de IBM será el primero en utilizar máquinas de ultravioleta extrema. EUV tiene una longitud de onda mucho más estrecha (13,5 nm) que las máquinas actuales de litografía de inmersión (193 nm), por lo que puede reducir el número de etapas de modelado y con ello la complejidad del patrón y den definitiva los costes de producción. EUV ha estado en desarrollo durante 10 años y su viabilidad comercial parece que ha llegado.IBM dice que, en comparación con los chips de 10 nm comerciales de Samsung, la nueva tecnología de 5 nm ofrece un aumento de rendimiento del 40% con el mismo consumo o dicho de otra forma, una caída del 75% en el consumo de energía con el mismo rendimiento. No hay fecha para la producción de este chip ni mucho menos para su comercialización. Será en unos años. ¿Qué está haciendo Intel? El primer productor mundial de semiconductores lleva tres plataformas computacionales con el mismo proceso de fabricación y llegará una cuarta próximamente. No parece ser problema de tecnología, sino de costes. El próximo avance en procesos de fabricación llegará con la plataforma Cannonlake de 10 nanómetros a la que Intel tiene previsto saltar en 2018.Un proceso de fabricación que manteniendo el rendimiento permitirá reducir aún más el tamaño de los chips. También el precio de producción y su consumo lo que redundará en una gran autonomía en equipos portátiles y convertibles con estos chips que incluirán la CPU, GPU y controladora de memoria en la misma die, aumentando la integración de componentes y partes del chipset, que ya hemos visto en las últimas plataformas.Para alcanzar los procesos de fabricación de 7 nanómetros a finales de la década, Intel está investigando otro tipo de materiales, como el arseniuro de indio y galio, en procesos distintos del FinFET actual, nueva litografía y nuevos empaquetados 3D. Sobre esa base, el futuro para la próxima década serían los 5 nanómetros, una tecnología increíble que puede transformar toda la computación tal y como la conocemos y que como el desarrollo de IBM, se espera para la próxima década.Primer chip de 5 nm mundial | Ars Technica
6 comentarios9 shares
05/06/2017Juan Ranchal
IBM revela su procesador cuántico más potente

IBM revela su procesador cuántico más potente

El gigante azul ha presentado en sociedad el procesador cuántico más potente que se ha desarrollado hasta la fecha, una solución de 16 qubits que ya está totalmente terminado y listo para empezar a funcionar "fuera del laboratorio".Entrecomillamos la última parte porque como sabemos el estado de la computación cuántica es todavía muy temprano y su adopción se mantiene todavía bajo mínimos, aunque debemos reconocer que gracias al duro trabajo de gigantes como IBM se han conseguido avances importantes que poco a poco se han ido dejando notar.Volviendo a ese procesador de 16 qubits hay que destacar que hablamos de una solución de tercera generación que supera ampliamente a la anterior, ya que aquella estaba limitada a una capacidad máxima de 5 qubits.Es imposible hacer una conversión directa de rendimiento en qubits a valores dentro de la informática estándar, pero para que os hagáis una idea aproximada de sus posibilidades podemos hablar del volumen cuántico del mismo.Se trata de un sistema propuesto por IBM para medir el rendimiento de un procesador cuántico utilizando no sólo los qubits que puede manejar sino también la calidad de los éstos. Al hablar de calidad nos referimos a la tasa de error que registra un procesador, de manera que si se incrementan los qubits y también crecen los errores el rendimiento total no sólo puede quedar estancado sino que además puede llegar a reducirse.Pues bien, en este caso hablamos de 16 qubits de voumen cuántico, es decir de rendimiento real, lo que significa que el nuevo procesador cuántico de IBM ha conseguido triplicar de forma efectiva el rendimiento de la solución anterior de 5 qubits.Junto a ese procesador IBM ha confirmado que está trabajando en otro con 17 qubits, y que espera poder lanzar al mercado una solución de 50 qubits dentro de "unos pocos años".Más información: Phys.org.
4 comentarios470 shares
18/05/2017Isidro Ros
IBM logra almacenar datos en átomos invidualizados

IBM logra almacenar datos en átomos invidualizados

Investigadores de IBM en colaboración con el Instituto Federal de  Tecnología de Suiza han conseguido un auténtico hito al almacenar datos en átomos individuales, dando forma a un sistema que utiliza dichos átomos como bits.Por si alguien no lo sabe aclaramos desde ya que el átomo es la unidad más pequeña de la materia con la que el ser humano puede trabajar de manera "relativamente cómoda".Actualmente los discos duros convencionales necesitan unos 100.000 átomos para poder almacenar un bit, un número que contrasta enormemente con el avance que han conseguido los investigadores al introducir una equivalencia de un bit por cada átomo. ¿Cómo ha sido esto posible? La clave detrás de todo el proceso la tenemos en el holmio, un elemento químico metálico de tipo paramagnético (puede alinearse a un campo magnético) que ha permitido a los investigadores encajar y mantener de forma estable datos en un único átomo.El proceso fue todo un éxito, ya que ese bit almacenado en un átomo pudo leerse como cero y uno, y además fue posible reescribir los datos de cada átomo.En el documento completo donde profundizan en su descubrimiento podemos leer lo siguiente: "La alta estabilidad magnética del holmio combinada con lecturas y escrituras eléctricas muestra que la memoria magnética de átomo único es totalmente posible". Sin duda un avance muy importante que podría facilitar la llegada de soluciones de almacenamiento con mayor capacidad y un tamaño mínimo, algo que podemos entender de forma sencilla con sólo repasar el dato comparativo que os dimos en el tercer párrafo del artículo.Con todo debemos tener en cuenta que aunque es un logro impresionante y tiene un gran potencial de momento es algo limitado a pruebas de laboratorio, lo que significa que se encuentra en un estado muy temprano y que tiene mucho camino por recorrer.
1 comentario216 shares
09/03/2017Isidro Ros
IBM planea construir una computadora cuántica universal

IBM planea construir una computadora cuántica universal

Desde un punto de vista simplista podemos decir que casi cualquier empresa podría comprar una computadora cuántica, siempre que tenga dinero suficiente, pero deberá hacer frente a un problema muy importante, y es que dicha computadora no serviría como una máquina de propósito general.Para que se entienda mejor os ponemos un ejemplo sencillo, dicha computadora equivaldría a lanzar un PC que tuviera una gran potencia pero que sólo pudiera llevar a cabo una serie de tareas muy concretas y específicas.Con eso en mente podemos entender mejor la importancia que tiene el plan de IBM de construir una computadora cuántica universal, un sistema que serviría como máquina "multipropósito" y que además iría dirigida al "mercado de consumo general".Entrecomillamos esto último porque aunque en teoría cualquiera podría comprarla su precio probablemente acabe siendo muy elevado, y por tanto quedará como una solución orientada a grandes empresas y corporaciones.El plan del gigante azul se presenta como un objetivo a cumplir en "unos pocos años" y aspira a conseguir un sistema con una capacidad de 50 qubits. Puede sonar poco impresionante, sobre todo ahora que estamos acostumbrados a medir las frecuencias de las CPUs y GPUs en miles de MHz, pero como sabemos son dos conceptos diferentes.Una computadora cuántica universal de 50 qubits podría ser más potente en una gran cantidad de tareas que la mayoría de los superordenadores actuales, un dato que por sí mismo ya nos permite asimilar el potencial real que tendrán estos equipos.Todavía no conocemos la extensión exacta que tendrá ese calificativo de "universal", aunque desde luego tenemos claro que no se acercará a las capacidades multipropósito que tienen los ordenadores convencionales basados en bits.Más información: IBM Blog.
4 comentarios212 shares
06/03/2017Isidro Ros
Primera comparativa de rendimiento de dos computadoras cuánticas

Primera comparativa de rendimiento de dos computadoras cuánticas

IBM y la Universidad de Maryland aceptaron recientemente llevar a cabo la primera comparativa de rendimiento de dos computadoras cuánticas, un auténtico hito que además resulta muy interesante, ya que hablamos de soluciones que enfocan esta disciplina desde una perspectiva diferente.Esto supone que no sólo son rivales, sino que además han llevado a cabo una aproximación totalmente distinta sobre la computación cuántica. Para que lo entendamos mejor podemos decir que vendría a ser algo parecido a enfrentar un procesador x86 con uno basado en la arquitectura RISC, un ejemplo simple pero efectista.Para llevar a cabo esta prueba se utilizaron algoritmos que podían ser resueltos sin problema por ambas computadoras cuánticas y los resultados fueron sorprendentes, ya que se produjo prácticamente un empate técnico.La solución de IBM, que está basada en un sistema que integra un procesador dedicado fabricado con metales superconductores, pudo terminar la prueba en menos tiempo pero sus resultados no fueron totalmente precisos, por lo que no fue posible darle una valoración perfecta.Por contra el equipo de la Universidad de Maryland, que está basado en un sistema de iones de iterbio atrapados en un campo electromagnético, tardó más tiempo en terminar la prueba pero logró unos resultados más precisos y acertados.¿Por qué se ha producido esa disparidad a nivel de precisión? El MIT nos deja una explicación: "El dispositivo de la Universidad de Maryland utiliza qubits que están interconectados, lo que significa que todos pueden compartir información entre sí. Por su parte el de IBM debe intercambiar información a través de un concentrador central, y ese proceso puede provocar que algunos estados cuánticos delicados sean destruidos ". En resumen, que el sistema de IBM trabaja más rápido al no tener que compartir información directamente entre todos los qubits, pero como contrapartida queda expuesto a una posible pérdida de información, que como vemos acaba pasándole factura.Más información: Hexus.
5 comentarios29 shares
22/02/2017Isidro Ros
Este hub de IBM ayudará a que te cures más rápido

Este hub de IBM ayudará a que te cures más rápido

Un equipo de investigación de IBM ha desarrollado un dispositivo capaz de recopilar información de varias fuentes simultáneamente y compartirla con el médico, acelerando los diagnósticos y reduciendo considerablemente el tiempo de estancia en el hospital.El dispositivo, que de momento se llama "hipervisor cognitivo", puede obtener datos de relojes inteligentes, pulseras de fitness o cualquier dispositivo médico compatible que se desarrolle en un futuro; el hub recopila los datos que se procesan en una nube privada de IBM, para ofrecer resultados útiles para la toma de decisiones.La idea es que, en el futuro, los centros hospitalarios entreguen un hub al paciente para llevárselo a casa; de esta forma, puede continuar su recuperación en casa con la garantía de estar monitorizado en todo momento. En caso de detectar algún problema, el médico recibiría un aviso en tiempo real y podrían actuar en consecuencia."Soy Chiyo, su nuevo compañero. Por favor, tóqueme para empezar" dice una voz que sale del dispositivo en el momento del encendido "cada vez que me toque, le informaré sobre su estado". Según los desarrolladores, la ausencia de botones y el control intuitivo por voz ayudará y animará a los pacientes a interactuar con el dispositivo.Llegados a este punto, conviene aclarar que IBM no planea entrar en el negocio de wearables, al menos en la parte de hardware. Se trata de una demostración técnica de lo que se puede hacer, del tamaño de una naranja y construido sobre placas Raspberry Pi y Andruino. "Creo que en unos cinco años seremos capaces de fabricar un dispositivo de este tipo tan pequeño que podremos llevarlo en el oído" concluye Bruno Michel, jefe de integración de sistemas inteligentes en IBM Research.Vía | PCWorldFotos | Magdalena Petrova
0 comentarios24 shares
15/02/2017Tomás Cabacas
IBM ya cultiva los chips del futuro en nanotubos de carbono

IBM ya cultiva los chips del futuro en nanotubos de carbono

Hace años que venimos hablando del fin del silicio y de la necesidad de una evolución disruptiva en la fabricación de microprocesadores para mantener la vigencia de  la Ley de Moore; hoy sabemos que un equipo de investigadores de IBM ha realizado un descubrimiento que podría ser clave; no se trata de construir chips, sino de cultivarlos.Las estructuras basadas en nanotubos de carbono serán una pieza muy importante para el futuro de la tecnología; además de permitir el desarrollo de chips todavía más rápidos y eficientes, podrían ser la base de innovaciones como ordenadores o smartphone flexibles y ultrafinos, nano-máquinas que podrían entrar en nuestro cuerpo para curar enfermedades o ropa inteligente repleta de sensores y capacidad de proceso.Los nanotubos no son un desarrollo nuevo pero, hasta el momento, los investigadores siempre se había topado con grandes dificultades para construir estructuras con ellos. Por definición, son increíblemente pequeños así que muchos de los procesos de fabricación que sírven para el silicio no son válidos a escala nanoscópica."Para explicarlo, suelo usar la analogía de una estatua formada por una pila de bloques. Con nanotubos, es imposible colocar uno encima de otro en el patrón que queremos" explica a Wired el investigador George Tulevski. "Estamos tratando de hacer frente a ese problema de la misma forma que lo hace la naturaleza, construyendo las estructuras que necesitamos utilizando la química. En lugar de pensar en una estructura realizada de abajo arriba debemos imaginar un cultivo de cristal que dará forma a la estatua que necesitamos" añade Tulevski, que dara más detalles mañana en una conferencia TED @IBM.Así se ven los nanotubos de carbono con un microscopio electrónico. El anuncio, aunque esperanzador, no es nuevo. Ya hace algunos meses hablamos en MuyComputerPRO de cómo un equipo de IBM Research había realizado avances importantes con los nanotubos de carbono. Lo relevante es que se cambia la perspectiva, una vez entendido que un proceso mecánico de fabricación a esta escala es poco menos que imposible.Evidentemente, todavía estamos lejos de ver los primeros chips fabricados con nanotubos; la industria del silicio es poderosa y se están consiguiendo retos increíbles como los 10 nm que consiguió Samsung hace muy poco pero, al menos, parece que se vislumbra una alternativa que podría romper todos los límites que damos por seguros a día de hoy.Más información | Wired
2 comentarios14 shares
14/11/2016Tomás Cabacas
Los Mac salen más baratos que los PCs a medio plazo, dice IBM

Los Mac salen más baratos que los PCs a medio plazo, dice IBM

La propia IBM ha confirmado en unas declaraciones recientes que los equipos Mac salen más baratos que los PCs a medio y largo plazo, un enfoque puede resultar difícil de entender pero que en realidad tiene una explicación muy sencilla.Lo primero que hay que dejar claro es que la compañía habla de su propia experiencia ya que en su momento dieron la opción a sus empleados de optar entre utilizar Macs o PCs, y los resultados que han ido recopilando muestran que los primeros son más rentables. Espera, ¿no se supone que los Mac son más caros? Sí, por lo general lo son, al menos si comparamos equipos con las mismas especificaciones, pero como ocurre con tantas otras cosas el precio de compra no es lo único importante, sino que también hay que tener en cuenta el mantenimiento de los mismos.Según IBM los PCs necesitan más del doble de servicio técnico que los Macs, un hecho que supone más gastos y costes directos que a su vez derivan en otros indirectos, como pérdidas de jornadas de trabajo, reducciones de productividad y mantener a más personal en IT.En conjunto un PC puede salir hasta tres veces más caro que un Mac en un entorno profesional, según las palabras de Fletcher Previn, director de Lugar de Trabajo como Servicio en IBM, quien además concretó que ahora que tienen 90.000 ordenadores Apple han podido reducir los administradores de sistemas a apenas cinco personas.Las conclusiones de IBM son interesantes y desde luego no están solos, muchos profesionales prefieren un Mac para trabajar y lo complementan con un PC basado en Windows para sus ratos de ocio, aunque es un tema bastante espinoso con muchos matices que arrancan en las particularidades del propio usuario.A nivel personal siempre he usado PCs con Windows para trabajar y el último que monté y configuré por mi mismo duró 7 años hasta que hubo que cambiarle la fuente, y durante ese periodo sólo hice una reinstalación del sistema operativo.No está mal, sobre todo teniendo en cuenta que me costó 650 euros y se que utilizaba una media de 9 horas al día.Más información: WCCFTech.
47 comentarios473 shares
21/10/2016Isidro Ros
Primer tráiler de cine creado con inteligencia artificial

Primer tráiler de cine creado con inteligencia artificial

Hoy se estrena en Estados Unidos Morgan, película de suspense y ciencia ficción protagonizada por la cada vez más conocida y solvente Kate Mara y dirigida Luke Scott. Se trata, de hecho, del debut en solitario tras las cámaras del vástago de uno de los grandes cineastas de Hollywood,Ridley Scott, pero no es este o cualquier otro dato artístico es que está llamando la atención de los medios.Resulta que el conocido Watson, no el fiel compañero de Sherlock Holmes, sino el superordenador de IBM, ha sido el encargado de crear el tráiler de lanzamiento del film. ¿Está la inteligencia artificial lo suficientemente avanzada como para montar el tráiler de una película tal y como lo haría un montador profesional? La respuesta la tienes en el vídeo, aunque como te imaginarás, no iban a publicar algo que no estuviese a la altura.El experimento es interesante por cómo se ha llevado a cabo, exponiendo a Watson a un centenar de películas del género para que el sistema aprendiera los patrones básicos y supiese interpretar las escenas clave con las que armar el tráiler. Además, Morgan va de inteligencia artificial, por lo que no podían haber escogido mejor estreno de la bestia de IBM en este campo.En cualquier caso, no es la primera vez que Watson sale de su zona de confort para enfrentarse al mundo. Hace unos años participó en el concurso televisivo Jeopardy con distinta suerte según la pregunta, y más recientemente lo hemos visto ayudando a una mujer enferma de leucemia.
5 comentarios220 shares
02/09/2016J.Pomeyrol
Watson de IBM ayuda a una mujer enferma de leucemia

Watson de IBM ayuda a una mujer enferma de leucemia

La inteligencia artificial que está respaldada por el superordenador Watson de IBM es una de las creaciones más complejas y también más interesantes y llena de posibilidades que existen actualmente.Ya hemos visto que es capaz de ganar concursos e incluso de cocinar comidas exóticas, pero su potencial va más allá y también puede ayudar a salvar vidas si se aplica correctamente al campo de la medicina, como acaba de demostrar recientemente al corregir el diagnóstico de una mujer de 60 años, dictaminando que la misma padece una rara forma de leucemia.La leucemia es lo que se conoce como cáncer hematológico o cáncer de la sangre, caracterizado por una producción anormal de células de tipo blanco (leucocitos) que como sabrán muchos de nuestros lectores cumplen un papel inmunitario en el organismo.Esto acaba afectando a la producción de eritrocitos (glóbulos rojos), haciendo que su conteo por mililitro de sangre se reduzca progresivamente hasta niveles que pueden producir la muerte.Al ser una enfermedad progresiva un diagnóstico temprano y acertado es vital para el correcto tratamiento del paciente, así que podemos entender la importancia que ha tenido la intervención de Watson de IBM en ese diagnóstico.¿Y cómo ha actuado exactamente esta inteligencia artificial? Según han expuesto en su informe los científicos de la Universidad de Tokio Watson analizó una muestra de ADN de la paciente y comparó los cambios que había sufrido con una base de datos que contiene más de 20 millones de documentos de investigación relacionados con el cáncer.¿Impresionado? Pues espera, que todavía falta un dato importante, y es que todo eso lo hizo en apenas diez minutos.Como vemos el potencial de Watson es enorme y puede ayudar a salvar vidas si se aplica correctamente al sector médico.Más información: NDTV.
3 comentarios52 shares
08/08/2016Isidro Ros
IBM prepara chip de diagnóstico capaz de filtrar virus

IBM prepara chip de diagnóstico capaz de filtrar virus

La prevención juega un papel esencial a la hora de mantener nuestra salud en buen estado pero la detección precoz también, ya que permite tratar posibles enfermedades con la mayor brevedad posible, y en este sentido el chip de diagnóstico que ha presentado IBM podría abrir una nueva etapa.Este chip está fabricado en nanoescala sobre la base de lo que se conoce como desplazamiento lateral determinista o DLD por sus siglas en inglés, un método que permite la separación de virus y otras amenazas para la salud del ADN en muestras líquidas, como saliva y orina por ejemplo.Por si alguien se ha perdido lo explicamos con mayor detalle. La muestra de líquido tomada se filtra a través de una serie de pilares diminutos que separan el contenido en función de su tamaño, una estrategia que ya se ha utilizado para peligros de mayor tamaño, como parásitos, por ejemplo.Sin embargo debemos entender bien el avance que ha conseguido IBM, ya que estamos hablando de un chip capaz de filtrar y separar elementos que se mueven en la escala de los 20nm a los 110nm, y en ella podemos incluir tanto virus como marcadores tumorales.Es muy prometedor, aunque por desgracia de momento se encuentra en una etapa temprana y no sabemos si finalmente acabará llegando a buen puerto. Con todo imaginamos que aunque así sea tardará unos cuantos años en llegar a tener un prototipo comercial.Más información: Nature.
0 comentarios85 shares
02/08/2016Isidro Ros
IBM prepara superordenador de 200 PETAFLOPs

IBM prepara superordenador de 200 PETAFLOPs

Hace apenas unos días tuvimos ocasión de conocer el superordenador chino Sunway TaihuLight, un equipo impresionante que conseguía una potencia de 93 PETAFLOPs y que parece haber generado un malestar claro en Estados Unidos, ya que la "tierra de la libertad" se ha apresurado a confirmar que están trabajando con IBM para crear un sistema superior.Según las primeras informaciones este nuevo superordenador se conoce como Summit y sería capaz de ofrecer una potencia bruta de 200 PETAFLOPs, es decir, el doble de su rival chino, pero reduciendo en gran medida el número de nodos, lo podría implicar una mayor eficiencia.La diferencia sería considerable, ya que el Sunway TaihuLight utiliza 40.960 nodos para llegar a esos 93 PETAFLOPs y el Summit podría conseguir los 200 PETAFLOPs con apenas 3.400 nodos, gracias al uso de procesadores PowerPC 9 y GPUs NVIDIA Volta.Cada uno de esos nodos tendrá medio terabyte de memoria DDR4 y HBM, acompañada de 800 GB de memoria RAM no volátil que ejercería una función de "buffer extendido" para mejorar las prestaciones del sistema.Todo apunta a que será un superordenador impresionante y que contará con todo lo necesario par convertirse en el más potente del momento, aunque debemos tener en cuenta que no estará terminado hasta 2018.Tal y como os dijimos en el artículo anterior este tipo de equipos están destinados a usos muy concretos y recurren al escalado de grandes cantidades de núcleos CPU y GPU junto a enormes cantidades de memoria de diferentes tipos para alcanzar rendimientos inimaginables, siendo clave el paralelizado sobre ellos para conseguir un buen aprovechamiento de estas estructuras.Más información: Fudzilla.
9 comentarios11 shares
23/06/2016Isidro Ros
Almacenamiento óptico de IBM, 50 veces más rápido

Almacenamiento óptico de IBM, 50 veces más rápido

Como sabemos el uso de memoria NAND Flash como principal en el sistema no es viable debido a lentitud de la misma, por ello utilizamos memoria RAM, que sin embargo resulta más cara y a diferencia de aquella es volátil. El almacenamiento óptico de IBM podría ser una solución que suceda a ambos elementos, pero su coste no lo hacía viable, hasta ahora.Antes de entrar en materia vamos a aclarar qué es esta tecnología de almacenamiento óptico de IBM a la que hacemos referencia. Hablamos de un medio de almacenamiento basado en lo que se conoce como memoria de cambio de fase (PCM), cuyas propiedades permiten unir lo mejor de los dos mundos, es decir, de las memoria RAM y NAND Flash, ya que es muy rápida y no es volátil.¿Cómo funciona el almacenamiento óptico con memoria de cambio de fase? Se utilizan corrientes altas o medias para grabar información sobre el medio óptico y un bajo voltaje para realizar tareas de lectura. Los datos se reconocen en función de la conductividad, de manera que si la misma es alta se identifica un "1" y si es baja un "0".Hasta ahora no era posible incrementar la cantidad de bits almacenados por celda debido a que era necesario calentar el soporte y ello podía afectar a su correcto funcionamiento, una barrera que finalmente han logrado superar haciendo un seguimiento y codificando las variaciones que se producían, alcanzando así un máximo de 3 bits por celda.Esto reduce los costes de fabricación en gran medida y abre las puertas a la llegada de esta tecnología al mercado general de consumo, donde podría utilizarse por ejemplo en unidades de almacenamiento híbridas junto con memoria NAND Flash.Podemos citar por ejemplo la creación de módulos de almacenamiento para smartphones, en los que el sistema operativo estaría integrado en la memoria de cambio de fase y el resto de aplicaciones en la porción SSD. Gracias a esto el sistema operativo arrancaría casi al instante, ya que la memoria PCM puede leer información en menos de 1 microsegundo, mientras que la memoria Flash tarda 70 microsegundos.Más información: IBM.
1 comentario214 shares
17/05/2016Isidro Ros
IBM desarrolla una “bala mágica” contra infecciones víricas

IBM desarrolla una “bala mágica” contra infecciones víricas

La división de investigación de IBM y el Instituto de Bioingeniería y Nanotecnología de Singapur han conseguido desarrollar una macromolécula que podría ayudar a luchar contra prácticamente cualquier tipo de infección vírica, desde las más leves como el Herpes hasta otras tan peligrosas como el Ébola y el Zika.Dicha macromolécula es un nuevo químico que ha sido creado totalmente desde cero. Según los expertos también puede hacer frente sin problemas a las mutaciones que los virus suelen llevar a cabo para superar los tratamientos que se van desarrollando, y los combate de tres formas claramente diferenciadas:Evita que infecte las células sanas: Éste es uno de los recursos principales que utilizan los virus durante los procesos infecciosos y en muchos casos su simple bloqueo es suficiente para que no llegue a producir enfermedad alguna, de manera que el paciente se mantiene como "portador sano". Impide que el virus pueda multiplicarse: Un elemento fundamental que reduce los efectos destructivos de virus potencialmente letales, como por ejemplo el ya citado Ébola. Al evitar que se multiplique se reduce drásticamente su capacidad de acción, se limita el daño que puede causar al mínimo y se facilita su posterior eliminación. Potencia el sistema inmune: Gracias a ese impulso que recibe el sistema inmunitario adaptativo se refuerzan las capacidades defensivas de los linfocitos y de todas las células involucradas en el proceso de respuesta inmune, haciendo que nuestro cuerpo pueda luchar por sí mismo contra el virus y poner fin a la infección.Como vemos es totalmente prometedor, y lo mejor es que ya ha sido probada en laboratorio y ha resultado efectiva frente a varios virus, como el Dengue, el Herpes simple y el Ébola.Todavía no hay planes concretos para la fabricación de un producto comercial que permita aprovechar de forma real todas sus virtudes, pero se comenta que IBM ya habría empezado a considerar su lanzamiento a corto plazo.Más información: Forbes.
3 comentarios298 shares
13/05/2016Isidro Ros
Así es el computador cuántico de IBM

Así es el computador cuántico de IBM

Crear un computador cuántico que supere todo lo conocido en capacidad de proceso, será el próximo gran salto tecnológico y en ello están trabajando -en secreto y en abierto- múltiples equipos disciplinares.IBM tiene uno de los equipos más avanzados y esta semana ha anunciado una plataforma en la nube de computación cuántica, denominada IBM Quantum Experience, que permitirá a los usuarios hacer experimentos y construir algoritmos sobre el procesador cuántico de IBM.También podrán trabajar con bits cuánticos (qubits) y estudiar tutoriales y realizar simulaciones sobre las posibilidades de la computación cuántica. Se podrá acceder a esta plataforma a través de IBM Cloud desde cualquier ordenador o dispositivo móvil.El procesador cuántico está compuesto por cinco qubits superconductores alojados en el centro de investigación IBM T.J. Watson Research Center de Nueva York. Los cinco procesadores qubit son el ultimo avance de IBM en cuanto a arquitectura cuántica capaces de incrementar su escala para mayores sistemas cuánticos.Ya conoces como frente a los bits de la computación tradicional capaces de adoptar un valor de 1 o 0, la información en computación cuántica se almacena en qubits (bits cuánticos) que pueden adoptar simultáneamente ambos valores (superposición).Un ordenador cuántico universal podrá programarse para realizar cualquier tarea de computación y será exponencialmente más rápido que los sistemas clásicos para un gran número de aplicaciones científicas y de negocio.IBM prevé que durante la próxima década ya habrá disponibles procesadores de tamaño medio de entre 50-100 qubits. Se trata de una tecnología con un potencial enorme. Un ordenador cuántico de tan solo 50 qubits hará palidecer a cualquier superordenador del top-500 mundial.Todo un salto, no cabe duda. Los resultados prácticos comerciales todavía están lejos. Si bien existe una clara visión de la forma de construir un ordenador cuántico, los científicos se están topando con una serie de obstáculos importantes. Un problema clave sigue siendo los factores de interferencia que influyen en la capacidad de control y la fiabilidad de los qubits, tales como defectos de la temperatura, el electromagnetismo y el material.
5 comentarios557 shares
06/05/2016Juan Ranchal
Nuevo chip de IBM para redes neurales

Nuevo chip de IBM para redes neurales

IBM ha desarrollado un nuevo chip resistivo que sería capaz de multiplicar por 30.000 la velocidad de aprendizaje de lo que se conoce como Deep Neural Network, o Red Neural Profunda en una traducción directa.Esta solución del gigante azul ha sido denominada Resistive Processing Unit (RPU), o Unidad Resistiva de Procesamiento, y combina CPU con memoria no volátil para conseguir incrementar en gran medida el rendimiento, haciendo que tareas tan complejas como el habla o la traducción natural puedan ser una realidad.Puede parecer complicado pero es posible entenderlo de forma sencilla con un ejemplo. Modelos de inteligencia artificial como DeepMind de Google utilizan complejas capas de Redes Neuronales Profundas que necesitan realizar miles de millones de operaciones en paralelo.Esto implica una gran cantidad de comunicaciones entre la RAM y los procesadores que forman el sistema, un problema que se resuelve con los RPU de IBM, ya que como anticipamos cuentan con memoria no volátil que encima permite mantener unas velocidades similares ala DRAM. Así, la información que necesita la IA estaría siempre disponible para ser recuperada casi de forma casi instantánea.Suena bien, pero de momento todo se encuentra en una etapa inicial, y de hecho la propia memoria resistiva que se utiliza ni siquiera ha sido comercializada, así que estamos ante un proyecto a largo plazo.Más información: Tom´s Hardware.
0 comentarios219 shares
28/03/2016Isidro Ros