Conecta con nosotros

Noticias

El Proyecto Maven (cuando la IA mata) ya está activo en combate real

Publicado

el

Proyecto Maven

El Proyecto Maven es un programa militar del Departamento de Defensa de Estados Unidos. Usa las últimas tecnologías de inteligencia artificial y aprendizaje automático para localización de objetivos (y otras tareas) y ya se está utilizando en situaciones de combate en tiempo real.

Pocos pueden dudar que hoy estamos más cerca que ayer de un desenlace como el descrito en la peli de ciencia ficción de Cameron, ‘Terminator’. No son pocas las voces autorizadas que siguen alertando de la falta de controles (técnicos, legales, éticos y de seguridad) de todo lo relacionado con la IA. Si las investigaciones en campos como la medicina son extraordinariamente esperanzadores, los relacionados con las armas autónomas y robots soldado causan pavor.

El Proyecto Maven es de este tipo. Activo, al menos desde 2018, salió a la luz pública cuando un numerosos grupo de empleados de Google (6.400 firmantes) se rebelaron contra su compañía a través de una carta abierta donde pedían que el gigante de Internet rompiera el contrato con el Pentágono que alimentaba de datos el proyecto. La petición, apoyada por 300 científicos y académicos (300 expertos en robótica, inteligencia artificial, relaciones internacionales, seguridad, ética y derecho) citaba cuestiones éticas, decisiones políticas y la erosión de la confianza de los usuarios. Google respondió y canceló el contrato, aunque otros como Microsoft y Amazon tomaron el relevo y el proyecto continuó.

Y es que parece imparable todo esto de la IA. La llegada masiva de bots conversacionales como ChatGPT han mostrado al gran público la enorme capacidad de unas tecnologías que se hacen cada vez más inteligentes y más rápidamente, con una red neuronal de impresionantes dimensiones que no va a dejar de crecer a través de las miles de empresas que pretenden subirse al barco de la IA. Y los datos de los millones de usuarios que la retroalimentamos con su uso.

Proyecto Maven, ahora activo

Schuyler Moore, director de tecnología del Comando Central de Estados Unidos (CentCom), ha confirmado en una entrevista a Bloomberg, que el Pentágono ha comenzado a utilizar tecnologías de inteligencia artificial en situaciones de batalla reales después de que los terroristas de Hamás atacaran a Israel en octubre de 2023. «Este ataque lo cambió todo» y el Departamento de Defensa finalmente decidió implementar los algoritmos de IA desarrollados por el Proyecto Maven. El ejército estadounidense inmediatamente «comenzó a hacer cosas que nunca había hecho con la tecnología de guerra de IA», asegura. «Inmediatamente cambiamos de marcha y adoptamos un ritmo operativo mucho más alto que el que teníamos anteriormente».

Los desarrolladores diseñaron los algoritmos del Proyecto Maven para que funcionen a partir de imágenes capturadas por drones estadounidenses, lo que ayuda a detectar soldados u otros posibles objetivos de ataque aéreo. Desde el 2 de febrero, CentCom dice haber identificado y destruido cohetes, misiles, drones e instalaciones.

Moore intentó desmitificar las supuestas capacidades de «matar» de los nuevos algoritmos de reconocimiento de objetos, afirmando que cada paso que involucra a la IA termina con la validación humana. El CentCom también probó un motor de recomendación de IA que sugería planes de ataque y las mejores armas para usar durante las operaciones. Sin embargo, los resultados no estuvieron a la altura de los estándares humanos, según se informa.

Nadie sabe donde va a acabar todo esto. El Departamento de Defensa de EE.UU (y el resto de potencias) está dispuesto a seguir adelante con el despliegue de tecnología «inteligente» en el campo de batalla. Al parecer, el Pentágono ya está trabajando en la integración de modelos de lenguaje grande (LLM) en decisiones de combate reales. Y eso será un salto crítico del que seguramente no podamos volver.

Si la seguridad es un punto cuestionable, no lo es menos las cuestiones éticas. Los científicos críticos con todo esto siguen alertando que «los contratos del Departamento de Defensa señalan una peligrosa alianza entre la industria tecnológica privada, actualmente en posesión de grandes cantidades de datos personales confidenciales recabados de personas de todo el mundo, y el ejército de un país».

Nosotros usamos la IA en un móvil para mejorar la toma de una foto o el PC para realizar una búsqueda o generar un gráfico. Parece simple, pero todo eso se aprovecha para seguir alimentando y entrenando las redes neurales detrás de los grandes modelos de lenguaje ML y los clientes de IA. Por supuesto, todo ello termina (o empieza) en la industria militar. Fue una de las (acertadas) quejas de los empleados de Google. Y sabían de lo que hablaban porque pocos tienen más datos recopilados que el gigante de Internet.

Lo más leído