Conecta con nosotros

Noticias

Meta prueba un nuevo chatbot… sálvese quien pueda

Publicado

el

Meta prueba un nuevo chatbot... sálvese quien pueda

Sé que, por norma general, cuando hablo de Facebook y de Meta tiendo a ser bastante crítico. No tengo especial animadversión ni hacia la red social ni hacia la compañía, aunque es cierto que llevan años cosechando una imagen especialmente negativa con esfuerzo. Sin embargo, en esta ocasión procede aclarar que la advertencia de seguridad del título no se debe a que hablemos de un proyecto de esta empresa en particular… o, bueno, no del todo.

Y es que la compañía ha puesto en marcha BlenderBot 3, un chatbot de propósito general, de momento accesible solo desde Estados Unidos (he intentado acceder mediante dos VPN pero tampoco ha sido posible) y que, al menos en su definición, pretende ofrecer tanto conversación de carácter general, como las que se pueden establecer en la barra del bar en cualquier momento, como responder el tipo de consultas que se plantean habitualmente a los asistentes digitales.

Como todos los LLM, BlenderBot ha sido entrenado con grandes conjuntos de datos de texto con el fin de poder establecer patrones que, a posteriori, serán los responsables de las respuestas facilitadas por la IA. Dichos sistemas han demostrado ser extremadamente flexibles y se les ha dado una variedad de usos, desde generar código para programadores hasta ayudar a los autores a escribir su próximo best seller. Sin embargo, estos modelos también tienen serios problemas, como el desarrollo de sesgos a partir de los datasets y que, cuando desconocen la respuesta correcta a una pregunta, en vez de decir que no lo saben, tienden a inventarse una respuesta.

Meta prueba un nuevo chatbot... sálvese quien pueda

Y aquí podemos hablar en positivo de Meta, pues el objetivo de BlenderBot es probar, precisamente, una posible solución para el problema de las respuestas inventadas. Así, una destacable característica de este chatbot es que es capaz de buscar informaación en Internet para hablar sobre temas específicos. Y aún mejor, los usuarios pueden hacer click en sus respuestas para ver de dónde obtuvo su información. BlenderBot 3, en otras palabras, puede citar sus fuentes, aportando por lo tanto una enorme transparencia.

Así pues, el punto de partida de Meta es bueno, al menos en teoría. El problema es que los chatbots, tal y como los conocemos en la actualidad, tienen dos problemas. El primero es que su aprendizaje es continuo, por lo que basta con que un gran número de usuarios decidan generar un sesgo malintencionado en la IA para que, si esta no cuenta con los elementos necesarios para evitarlo, acabe «contaminada» y, por lo tanto, los reproduzca.

Y el segundo problema está relacionado con el primero, y es que este tipo de algoritmos operan como una caja cerrada y opaca, en el sentido de que no se sabe qué ocurre en su interior. Por lo tanto, sus responsables dependen exclusivamente de la observación constante de la IA, no pueden «levantar el capó» para ver qué ocurre ahí dentro, lo que dificulta y retrasa la identificación de problemas y, en muchos casos, imposibilita que sean solventados.

Así, este chatbot de Meta parece un paso en la dirección correcta, pero después de tantas y tan malas experiencias en el pasado, reconozco que soy más bien pesimista.

Si me dieran una cana por cada contenido que he escrito relacionado con la tecnología... pues sí, tendría las canas que tengo. Por lo demás, música, fotografía, café, un eReader a reventar y una isla desierta. ¿Te vienes?

Lo más leído