Conecta con nosotros

Noticias

Google, acusada de entrenar a Bard con respuestas de ChatGPT

Publicado

el

Google, acusada de entrenar a Bard con respuestas de ChatGPT

ChatGPT, Bing, Claude, Bard… la guerra de los chatbots basados en inteligencia artificial ya ha comenzado. Podemos suponer que esto va para largo, pues probablemente las grandes tecnológicas han decidido hacer una apuesta realmente elevada en este campo y, en consecuencia, no se rendirán ante las primeras dificultades o ante las posibles señales que indiquen que, quizá, el mercado empiece a estar saturado a partir de un punto.

Tampoco podemos esperar que respondan a la carta abierta, firmado por grandes nombres de la ciencia y la tecnología, en la que piden un «parón» de seis meses, hasta que se establezcan las regulaciones necesarias (y sí, realmente son necesarias, ya que el potencial de la inteligencia artificial es excepcional, pero mal gestionado puede llevar a situaciones realmente complicadas). Conseguir llevarse el gato al agua en este mercado, que apunta a ser tan disruptivo, puede acabar por convertirse en el becerro de oro, con todas las connotaciones negativas asociadas al mismo.

En este momento, con muchos chatbots en distintos puntos dentro de sus fases de prueba, sus creadores compiten por dotarlos de más funciones, crecer en visibilidad y, por supuesto, enriquecerlos a base de un proceso de entrenamiento continuo, con el que cada día saben más de todo. Esto resulta básico para evitar que se produzcan respuestas erróneas a las consultas de los usuarios, y también reduce sustancialmente el riesgo de que se produzcan alucinaciones, un problema común de las IA del que hablaremos en profundidad próximamente.

Google, acusada de entrenar a Bard con respuestas de ChatGPT

Sea como fuere, las tecnológicas necesitan alimentar los procesos de entrenamiento con datos, tengan estos el origen que tengan. Sin embargo, y según la acusación de un ex-empleado de la compañía, Google empleó respuestas de ChatGPT para entrenar a Bard, según podemos leer en The Information (tras muro de pago). El autor de dicha denuncia es Jacob Devlin, ingeniero especializado en inteligencia artificial que trabajó en Google durante el proceso, y que ahora es empleado de OpenAI. La acusación es bastante explícita, según dicho artículo:

«Devlin renunció después de compartir preocupaciones con Pichai, Dean y otros gerentes senior de que el equipo de Bard, que recibió asistencia de los empleados de Brain, estaba entrenando su modelo de aprendizaje automático utilizando datos de ChatGPT de OpenAI. Específicamente, Devlin creía que el equipo de Bard parecía depender en gran medida de la información de ShareGPT , un sitio web donde las personas publican conversaciones que han tenido con ChatGPT.»

Esta acusación, que ha sido negada por Google según podemos leer en The Verge, resulta un tanto preocupante, pues como ya hemos contado en más de una ocasión ChatGPT no es infalible. Así, confiar en sus respuestas para entrenar otro modelo de IA parece, sin duda, una apuesta bastante desacertada. Tanto que, la verdad, me resulta difícil creer que un equipo de profesionales haya podido actuar de esta manera, más aún teniendo en cuenta todo los que se juegan con el funcionamiento de Bard. Sin embargo, es cierto que Google ha tenido que pisar el acelerador por la presión de Microsoft, por lo que no es totalmente descartable que, en algún momento, alguien decidiera tomar un atajo.

Si me dieran una cana por cada contenido que he escrito relacionado con la tecnología... pues sí, tendría las canas que tengo. Por lo demás, música, fotografía, café, un eReader a reventar y una isla desierta. ¿Te vienes?

Lo más leído