Conecta con nosotros

Noticias

Una inteligencia artificial te recomienda el banco de alimentos de Ottawa

Publicado

el

Una inteligencia artificial te recomienda el banco de alimentos de Ottawa

Hace unos días hablábamos sobre un estudio que determina la poca fiabilidad de la inteligencia artificial, más concretamente de ChatGPT, a la hora de programar. Según el estudio al que aludí en la noticia, más de la mitad de las respuestas proporcionadas por el chatbot de OpenAI son erróneas, lo que ya de por sí es un problema, pero esto se complica más debido a la seguridad con la que ChatGPT expone sus respuestas. Dicho de otra manera, proyecta tanta seguridad que cuesta más cuestionarse la fiabilidad de las mismas, dato extraído del mismo estudio.

La inteligencia artificial plantea, y este es un debate que ya lleva abierto cierto tiempo, una amenaza para determinado tipo de puestos de trabajo. En un primer momento se hablaba de aquellos relacionados con tareas repetitivas, pero el auge de los modelos generativos ha ocasionado que ese temor se extienda también a determinadas actividades profesionales de tipo creativo. Y, es más, ya hemos visto casos de empresas que han empezado a recurrir a la IA para tareas llevadas a cabo, hasta ese momento, por personas.

Esto, no obstante, plantea una serie de problemas, y el más inmediato y directo tiene que ver precisamente con lo que mencionaba anteriormente al hilo del estudio sobre ChatGPT y la programación, es decir, la limitada fiabilidad de las respuestas, y el riesgo que supone darlas por finales, es decir, que están listas para ser usadas del modo que sea. A este respecto ya te contamos, hace unos meses, el lío en el que se metió un despacho de abogados estadounidense por fiarse de una respuesta de ChatGPT en la que el chatbot se inventaba jurisprudencia.

Una inteligencia artificial te recomienda el banco de alimentos de Ottawa

Pues bien, en esta ocasión nos encontramos con otro exceso de confianza con la IA. Y es que, según podemos leer en The Register, Microsoft publicó un texto generado por inteligencia artificial, una guía de lugares a visitar en Ottawa (Canadá), en la que incluyó el banco de alimentos de la ciudad. Este es el texto de la reseña que se podía encontrar en dicha publicación que, obviamente, estaba dirigida a turistas que se planteaban visitar la ciudad canadiense:

«La organización ha estado recolectando, comprando, produciendo y entregando alimentos a personas y familias necesitadas en el área de Ottawa desde 1984. Observamos cómo el hambre afecta diariamente a hombres, mujeres y niños, y cómo puede ser una barrera para el logro. Las personas que acuden a nosotros tienen trabajos y familias que mantener, así como gastos que pagar. La vida ya es bastante difícil. Considere la posibilidad de hacerlo con el estómago vacío.»

Es cierto que el turismo low cost ha facilitado sustancialmente el poder visitar lugares que, de otro modo, resultarían absolutamente inaccesibles para muchos, pero dudo que tanto como para que dichos turistas puedan competir, en lo referido a precariedad, con las personas verdaderamente necesitadas de la ciudad.

Microsoft, obviamente, ya ha retirado el artículo, y confío en que empezarán a supervisar lo que publican, después de este incidente. Y es que, como llevamos ya mucho tiempo diciendo, la inteligencia artificial es sensacional, pero no es perfecta. Si tienes curiosidad por ver la lista de recomendaciones, la puedes encontrar aquí (el banco de alimentos ocupa la tercera posición de la lista).

Si me dieran una cana por cada contenido que he escrito relacionado con la tecnología... pues sí, tendría las canas que tengo. Por lo demás, música, fotografía, café, un eReader a reventar y una isla desierta. ¿Te vienes?

Lo más leído