Conecta con nosotros

A Fondo

La Inteligencia Artificial a debate: ¿se debe pausar el desarrollo de los grandes proyectos?

Publicado

el

Inteligencia Artificial a debate

Un grupo de 1.000 personas entre los que se encuentran científicos, ingenieros, intelectuales, empresarios, políticos y grandes nombres de la tecnología mundial, han firmado una carta abierta donde solicitan la suspensión durante seis meses del desarrollo de los mayores proyectos de Inteligencia Artificial, ante los «profundos riesgos para la sociedad y la humanidad» que pueden plantear sin el control y gestión adecuados.

La carta abierta («Pause Giant AI Experiments: An Open Letter») ha sido publicada por el organismo sin ánimo de lucro Future of Life Institute e incluye firmantes bien conocidos por el gran público como Steve Wozniak o Elon Musk, pero también un montón de científicos y expertos relacionados con la IA que saben bien lo que nos estamos jugando. Y no solo por el nivel que están alcanzando estas tecnologías, sino por el pesimismo en cuanto al uso que los humanos daremos a ellas.

La Inteligencia Artificial a debate

Los avances en Inteligencia Artificial han sido enormes los últimos años y en múltiples campos. Algunos son extraordinariamente esperanzadores, como los de investigación médica que abordan problemas complejos con el desarrollo de algoritmos avanzados para la búsqueda de curas para enfermedades. Otros dan miedo, mucho miedo, como los relacionados con las armas autónomas y robots soldado. Si has visto películas de ciencia ficción como Terminator ya sabes de lo que hablamos y el porqué los expertos en tecnología e inteligencia artificial han firmado anteriores cartas abiertas y peticiones a Naciones Unidas para que se prohibiera totalmente su uso.

Inteligencia Artificial a debate

Hay preocupaciones serias de la ética y la seguridad de algunos desarrollos y también otros más tangibles como los relacionados con el empleo. Los avances en Inteligencia Artificial marcarán un punto sin retorno y cuando las máquinas sean capaces de hacer -casi- todo tipo de trabajos la pregunta es ¿qué haremos los humanos? Es previsible que los robots sean capaces de superar a los seres humanos en casi cualquier tarea en pocas décadas con un impacto en la sociedad enorme.

Los anteriores solo son algunos de los campos que preocupan relacionados con los avances en IA, pero hasta hace poco parecía que aún estábamos lejos de sus efectos. La llegada masiva de bots conversacionales como ChatGPT están mostrando al gran público la enorme capacidad de unas tecnologías que se hacen cada vez más inteligentes y más rápidamente, con una red neuronal de impresionantes dimensiones que no va a dejar de crecer a través de las miles de empresas que pretenden subirse al barco y los millones de usuarios que la retroalimentamos con su uso.

Otra carta abierta: ¿Estamos todavía a tiempo?

La misiva de los 1.000 firmantes va a en línea con otras propuestas anteriores. No se pide eliminar el desarrollo de los proyectos de la IA, sino de pausarlos para que haya tiempo de regularlos: «la sociedad ha hecho una pausa en otras tecnologías con efectos potencialmente catastróficos en la sociedad. Podemos hacerlo aquí. Disfrutemos de una larga pausa veraniega de la IA y no nos apresuremos a caer sin estar preparados».

La carta pone el nivel justamente en los proyectos que superen en capacidad a GPT-4, la última versión del modelo de lenguaje de inteligencia artificial de la compañía detrás de ChatGPT, OpenAI, contra la que claramente alertan: «los laboratorios de IA se han enzarzado en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas», incluso sin que sus creadores «puedan entender, predecir o controlar de forma fiable” estas tecnologías.

“¿Debemos desarrollar mentes no humanas que podrían acabar superándonos en número, ser más inteligentes que nosotros, que nos dejen obsoletos y que nos reemplacen? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?», se preguntan, dejando claro que no son las grandes tecnológicas como OpenAI, Microsoft o Google (por citar algunas) las que decidan: «Tales decisiones no deben delegarse en líderes tecnológicos no electos».

La carta propone que durante estos seis meses de pausa, los laboratorios de IA y los expertos independientes “desarrollen e implementen un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzados de IA que sean rigurosamente auditados y supervisados ​​por expertos externos independientes”.

En previsión de que la petición, como otras anteriores de similar naturaleza, caiga es saco roto, también piden la intervención de los Gobiernos para imponer esta moratoria en caso de que las partes implicadas se nieguen a la suspensión temporal de las investigaciones, un sistema legal sólido en torno a todo lo relacionado con la Inteligencia Artificial y seguridad completa de que los efectos de los mayores proyectos son positivos y que sus riesgos son manejables.

Debate enorme, no cabe duda. ¿Cómo lo ves tú? ¿Crees que estamos a tiempo o la situación ya está fuera de control?

Lo más leído