Conecta con nosotros

A Fondo

El CEO de OpenAI y otros expertos alertan del «riesgo de extinción humana» de una IA descontrolada

Publicado

el

riesgos de la IA

Regular la Inteligencia Artificial debe ser una «prioridad mundial», asegura un grupo de 350 expertos, ingenieros, ejecutivos e investigadores en una carta abierta en la que llegan a situar al mismo nivel de riesgo para la supervivencia humana una IA descontrolada que una pandemia global o una guerra nuclear. Casi nada…

¿Debemos desarrollar mentes no humanas que podrían acabar superándonos en número, ser más inteligentes que nosotros, que nos dejen obsoletos y que nos reemplacen? La gran pregunta, a modo de argumento de la película Terminator, ya ha sido respondida por numerosos grupos de expertos que llevan tiempo alertando de los riesgos de la Inteligencia Artificial. Hay un debate enorme y estamos en un momento crítico. El mundo debe decidir qué hacer con esta tecnología antes de que no haya marcha atrás y en un futuro -que algunos investigadores consideran demasiado cercano- las máquinas decidan por nosotros.

Y esto no es ciencia ficción. La última década ha traído avances extraordinarios en Inteligencia Artificial. Algunos, como los dedicados a investigación médica, creación de nuevos fármacos y cura de enfermedades, son esperanzadores para vivir más y mejor. Otros, como los relacionados con los robots soldado y armas autónomas, son enormemente inquietantes y directamente amenazan la supervivencia humana. Por no hablar de la ética y la seguridad intrínseca de algunos desarrollos y otros apartados tan importantes como los relacionados con el empleo. Ya lo hemos hablado. Cuando las máquinas sean capaces de hacer -casi- todo tipo de trabajos ¿qué haremos los humanos?

riesgos de la IA

Los riesgos de la IA: nueva alerta

Cada vez hay más voces que reclaman una regulación de todas estas tecnologías. El pasado mes de marzo, un grupo de 1000 expertos solicitaron una moratoria de seis meses en el desarrollo de los grandes proyectos de Inteligencia Artificial, ante los «profundos riesgos para la sociedad y la humanidad» que pueden plantear sin el control y gestión adecuados. Y es que hemos llegado a un punto donde los equipos de desarrollo más avanzados están inmersos en una carrera desenfrenada por conseguir las mentes digitales más poderosas. Y no está claro que las puedan controlar.

Ahora nos llega otra carta abierta y es para tenerla en cuenta, ya que la firman algunos de los mayores expertos mundiales en IA. Uno de ellos es Geoffrey Hinton, bautizado como el “padrino” de la IA y ex-empleado de Google y que junto a otros firmantes ganaron el Premio Turing 2018, el Nobel de la informática, precisamente por su trabajo en IA. Otros firmantes de calado son Demis Hassabis (Google DeepMind) y Dario Amodei (Anthropic), en la élite del desarrollo en IA.

También firma la carta el CEO de OpenAI. Una compañía que ha saltado a las portadas mundiales por el chatbot ChatGPT, que puede parecer un juego, pero que tiene detrás la red neuronal más grande de su tipo, creciendo sin parar con cada interacción de los millones de usuarios que lo usan y que avanza lo que puede llegar por la parte negativa. Hoy desinformación y propaganda, mañana eliminación de trabajos de todo tipo y cosas peores.

La carta no tiene desperdicio: «Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear», aseguran en el documento publicado en la web de la organización sin ánimo de lucro Center for AI Safety. Hinton, en una entrevista por separado, ha declarado que estamos a pocos años que la IA supere la capacidad intelectual de los humanos.

Regulación necesaria

Al menos parece que estas alertas están sirviendo para que los gobiernos se muevan. La Unión Europea está trabajando en la regulación de estas tecnologías y este mismo mes los firmantes más notorios de la última alerta (Altman, Hassabis y Amodei) se reunieron con el presidente de Estados Unidos para hablar sobre la regulación de la AI.

El mismo responsable ejecutivo de OpenAI testificó ante el Senado estadounidense y advirtió que los riesgos de esta tecnología eran lo suficientemente serios como para justificar la intervención del Gobierno.

Queda claro que es imperativo la creación de un sistema legal sólido en torno a todo lo relacionado con la Inteligencia Artificial y seguridad completa de que los efectos de los mayores proyectos son positivos para la humanidad. Y que sus riesgos son manejables, porque un Terminator real está más cerca de lo que pensamos. Y lo dicen los mayores expertos mundiales.

Lo más leído