Noticias
No te enamores de ChatGPT
Una vez más, porque no es la primera, que tenemos que relacionar ChatGPT con la película Her. Como seguramente recordarás, la presentación de GPT-4o el pasado mes de mayo nos dejó muy impresionados, y uno de los puntos clave de dicha presentación lo encontramos en el modelo de síntesis de voz que nos mostraron, un nivel nunca visto hasta entonces (aunque la presentación de Project Astra de Google, el día siguiente, también nos dejó sorprendidos en este sentido), y que nos recordó mucho a la película de Spike Jonze.
Si no la has visto y no la vas a ver (en caso contrario salta ahora al párrafo siguiente, porque voy a hablar de su argumento), nos sitúa en un futuro cercano en el que sale a la venta un sistema operativo plenamente gestionado por una inteligencia artificial general. Este sistema ha sido diseñado para proporcionar un tipo de interacción semejante al de hablar con otro ser humano. Y esto, en un entorno social que no propicia las relaciones interpersonales, ocasiona que muchos de los usuarios de ese OS acaben estableciendo relaciones afectivas, de diverso tipo, con el mismo.
Cuando la película fue estrenada, en 2013, el estado de desarrollo de la inteligencia artificial, y especialmente la percepción del mismo que tenía el común de los normales, estaba muy lejos de lo mostrado en la película de Jonze. Sin embargo, cuando conocimos el nuevo modelo que motoriza ChatGPT, a todos los que habíamos visto la película en su momento nos resultó absolutamente imposible no recordarla (algo a lo que, bueno, también contribuyó el asombroso parecido de la voz del chatbot con la de Scarlett Johansson, actriz que dio voz al sistema operativo en la película).
Así, lo que parecía ciencia ficción, de repente se ha convertido en algo mucho más cercano. Tanto que, según leemos en Wccftech, OpenAI ha tenido que recomendar a los usuarios de ChatGPT que no establezcan vínculos afectivos con el chatbot. Sí, has leído bien. La tecnológica asume que se debe a que las interacciones con el chatbot son cada vez más semejantes a las humanas en determinados aspectos, , y ha identificado patrones según los cuales algunos usuarios estarían dando «un paso más» con ChatGPT.
El establecimiento de un vínculo personal con un chatbot plantea varios riesgos, como que para esas personas dichas interacciones puedan traducirse en una menor socialización o la pérdida de la objetividad a la hora de valorar sus respuestas. Y, por lo tanto, han afirmado que van a establecer un sistema que permita monitorizar esos patrones para, en caso de detectar el problema, reajustar el comportamiento del chatbot con ese usuario, precisamente para evitar que pueda ir a más.
-
A FondoHace 2 días
PS5 Pro tampoco es una consola 4K, primeros datos de rendimiento
-
A FondoHace 6 días
Últimos días de ofertas de PcComponentes para la vuelta al cole (actualizada)
-
A FondoHace 3 días
PS5 Pro es un cúmulo de errores por parte de Sony, te explicamos los más importantes
-
NoticiasHace 2 días
Windows 12.1, un concepto que muestra el futuro de Windows 11