Conecta con nosotros

Noticias

Google previene a sus empleados sobre el uso de Bard… y es lógico

Publicado

el

Google previene a sus empleados sobre el uso de Bard... y es lógico

Leo, con cierta sorpresa, que algunos medios internacionales publican, con aspavientos, que Google ha advertido a sus trabajadores sobre los potenciales riesgos de los chatbots basados en modelos de inteligencia artificial generativa, entre los que se incluye, claro, su propio servicio, Bard. A diferencia de otras ocasiones en las que pongo el punto de mira en la actitud de determinados medios, en esta ocasión sí que es totalmente cierto, y el origen de dicha información lo encontramos en la Agencia Reuters.

Según varias fuentes internas citadas por dicha nota, son dos las recomendaciones dadas por Google a sus trabajadores. La primera es que no empleen información confidencial en sus conversaciones con los chatbots, ya hablemos de Bard, de ChatGPT, del Bing, de Poe, etcétera. Y la segunda es que, si emplean Bard para crear código de programación, que nunca lo utilicen directamente, es decir, que revisen, y si es necesario editen y corrijan, el código generado por el chatbot de Google.

«Google le dice a sus empleados que no utilicen Bard», «Google no confía en su propio chatbot», «Google recomienda a sus empleados no usar el servicio que ofrece al resto del mundo»… en fin, la colección de titulares tendenciosos es para echarse a llorar. Incluso, y eso que por norma general Reuters hace un gran trabajo, inicia esta pieza con el texto «Alphabet Inc está advirtiendo a los empleados sobre cómo usan los chatbots, incluido su propio Bard, al mismo tiempo que comercializa el programa en todo el mundo«.

Google previene a sus empleados sobre el uso de Bard... y es lógico

Que los chatbots pueden dar respuestas incorrectas no es algo nuevo, y que existe el riesgo de que reproduzcan en otras conversaciones, a posteriori, lo que nosotros hemos hablado previamente con estos servicios, también es algo de sobra conocido. Es más, todas las empresas que ofrecen este tipo de servicios, o al menos las principales, alertan siempre a todos los usuarios sobre los mismos. Es decir, que la advertencia emitida por Google a sus trabajadores, se asemeja mucho a la que recibe cualquier usuario del servicio.

Que una tecnológica, como Google, aliente a los usuarios a emplear un servicio como Bard, es perfectamente compatible con el hecho de que informe y advierta sobre las imperfecciones del mismo, y que extienda dicha recomendación a sus propios trabajadores es… algo normal. Tan normal que, personalmente, me sorprende un tanto que Reuters lo haya considerado noticiable. Lo que no me extraña, eso sí, es que la respuesta de determinados medios haya sido buscar las fórmulas más retorcidas para compartir esta noticia.

Seguro que, si es nuestra intención, podemos encontrar aspectos mejorables en lo referido a cómo está Google gestionando sus servicios basados en inteligencia artificial, pero desde luego, la falta de prudencia, de rigor y de ética están, al menos por lo que hemos podido ver hasta ahora, totalmente fuera de lugar. Es más, creo que si de algo han pecado, es precisamente de eso, de ser escrupulosamente prudentes, en un mundo que va muy, muy deprisa, y en el que algunos competidores han aprovechado las circunstancias para intentar ponerse por delante.

Si me dieran una cana por cada contenido que he escrito relacionado con la tecnología... pues sí, tendría las canas que tengo. Por lo demás, música, fotografía, café, un eReader a reventar y una isla desierta. ¿Te vienes?

Lo más leído