Conecta con nosotros

Noticias

No te fíes demasiado de ChatGPT, especialmente en el trabajo

Publicado

el

No te fíes demasiado de ChatGPT, especialmente en el trabajo

Quienes me leen habitualmente saben que, en general, tengo una opinión bastante positiva de ChatGPT, el chatbot de OpenAI que, con su lanzamiento, dio el pistoletazo de salida para la integración, a la velocidad de la luz, de los modelos de inteligencia artificial generativa en todo tipo de servicios. De no haber sido por su lanzamiento, a finales del año pasado, seguramente el nuevo Bing, Google Bard, los «copilotos» y demás elementos, todavía se encontrarían en una fase embrionaria.

Ahora bien, que tenga una opinión positiva del servicios no significa que desconozca sus problemas y limitaciones. Es más, la primera vez que escribí sobre ChatGPT en MuyComputer, fue precisamente para poner el foco en dichos problemas, como puedes ver aquí. En aquel caso mencionaba tres tipos de causas de los errores en las respuestas del chatbot, y me reservé la más preocupante, como ya indiqué en aquel momento, para el final.

Hablo, claro, de las alucinaciones, un problema difícil de resolver por completo y que, a día de hoy, nos obliga a revisar las respuestas proporcionadas por ChatGPT con alguna fuente externa y fiable para confirmar que no nos encontramos frente a un algoritmo que ha decidido dejar volar su imaginación. De lo contrario, si nos fiamos por completo de una respuesta, y especialmente si lo hacemos en el contexto laboral, nos podemos exponer a problemas y situaciones muy embarazosas.

No te fíes demasiado de ChatGPT, especialmente en el trabajo

Tal circunstancia es la que ha experimentado Steven A. Schwartz, abogado de Nueva York, que empleó accidentalmente datos falsos creados por ChatGPT en un juicio. En concreto se trataba de un litigio en el que defendía los intereses de un acusador particular frente a Avianca por un incidente que se produjo en un vuelo entre El Salvador y Nueva York. Durante el mismo, el cliente de Schwartz fue golpeado accidentalmente en la pierna por un carrito de los que emplean los tripulantes de cabina de pasajeros para distribuir comida, bebidas, ofrecer servicio de tienda a bordo, etcétera.

En su denuncia, el abogado citaba varios precedentes judiciales de causas similares pero, como seguro que ya te estarás imaginando, la fuente de los mismos no era otra que ChatGPT. Y sí, seguro que esto también lo has acertado, las referencias a casos anteriores proporcionadas por el chatbot eran o falsas o incorrectas. Así, ahora es el abogado quien está teniendo que dar explicaciones al tribunal por haber proporcionado información falsa en su demanda, según podemos leer en Reason que, además, extracta parte de las comunicaciones entra ambas partes.

No parece que la acción de Schwartz fuera intencionada, pues el más mínimo proceso de verificación de dichas sentencias habría arrojado el resultado que, efectivamente, se ha producido. Así, creo que su afirmación, de que confió en exceso en ChatGPT, es honesta, y estoy muy seguro de que ha aprendido la lección que esto no se repetirá. Y, sin duda, esto tiene una función muy beneficiosa, y es que sirve como un gran recordatorio de que un chatbot no puede ser tu única fuente… salvo que no te preocupe acabar con problemas.

Si me dieran una cana por cada contenido que he escrito relacionado con la tecnología... pues sí, tendría las canas que tengo. Por lo demás, música, fotografía, café, un eReader a reventar y una isla desierta. ¿Te vienes?

Lo más leído