Noticias
Gemini da el salto a los menores de 13 años

Desde su presentación, en el Google I/O 2023, los del buscador han hecho un all-in con Gemini, su cada vez más amplio conjunto de modelos y tecnologías basadas en inteligencia artificial, en la que podemos considerar como la más contundente y efectiva de las respuestas dadas hasta ahora por el ecosistema tecnológico a OpenAI. Y sí, es posible que estés pensando que Microsoft también ha lanzado un órdago, pero en el caso de los de Redmond debemos recordar que parte de sus cartas son compartidas con las de los creadores de ChatGPT. Y en este contexto de expansión ambiciosa y posicionamiento global, Google ha decidido ahora dar un paso más: abrir el acceso a Gemini a un nuevo tipo de usuario hasta ahora excluido del radar de la inteligencia artificial conversacional.
Según ha anunciado Google esta semana, su chatbot de inteligencia artificial estará disponible también para niños menores de 13 años con cuentas gestionadas por sus padres a través de Family Link. El aviso ha llegado directamente por correo electrónico a las familias, informando de que “Gemini Apps estará disponible para tu hijo muy pronto”. Los menores podrán utilizar el asistente para hacer preguntas, obtener ayuda con los deberes e inventar historias, entre otros usos.
El acceso no requerirá un permiso previo específico: los menores con cuentas familiares podrán comenzar a usar el chatbot de forma autónoma, aunque los padres serán notificados en cuanto ocurra y podrán gestionar los ajustes para desactivarlo si lo consideran oportuno. La compañía ha explicado que esta nueva funcionalidad está diseñada para cumplir con la legislación vigente sobre protección de datos infantiles, y que el uso que hagan los niños no se empleará para entrenar nuevos modelos de IA.
Entre las recomendaciones dirigidas a las familias, Google ha insistido en que los menores deben entender que Gemini no es humano, que puede cometer errores y que no deben introducir información sensible o personal. También sugiere que los padres enseñen a sus hijos a contrastar las respuestas del asistente y a desarrollar un pensamiento crítico frente a sus resultados.
Sin embargo, no han tardado en aparecer las primeras voces críticas. UNICEF y otras organizaciones han alertado del riesgo que suponen los chatbots generativos para niños pequeños, advirtiendo de que pueden malinterpretar las respuestas, asumir como ciertas afirmaciones erróneas o desarrollar una dependencia emocional hacia sistemas que simulan conversación humana. La preocupación no es nueva: iniciativas como YouTube Kids han sido observadas con lupa, y otras como Instagram Kids fueron, afortunadamente, canceladas tras recibir presiones institucionales y sociales.
A todo esto se suman los antecedentes regulatorios. Compañías como Google, Microsoft y Amazon ya han sido sancionadas en el pasado por incumplir la COPPA, la ley estadounidense que protege la privacidad infantil en internet. Aunque Google afirma cumplir ahora todos los requisitos legales, el escrutinio será intenso: permitir el acceso de niños a sistemas complejos de generación de texto plantea desafíos éticos y técnicos que todavía están lejos de resolverse.
El acceso de menores a herramientas como Gemini no debería ser demonizado, pero sí gestionado con absoluto rigor. No basta con filtros automáticos ni con mensajes de advertencia: hace falta una reflexión más profunda sobre el papel que estas inteligencias están asumiendo en la formación —y deformación— del pensamiento. Tal vez la pregunta no sea si los niños están preparados para hablar con IA, sino si nosotros estamos preparados para dejarles hacerlo.