Conecta con nosotros

Noticias

CNET ha usado inteligencia artificial en sus artículos, ha salido mal

Publicado

el

CNET ha usado inteligencia artificial en sus artículos, ha salido mal

El uso de la inteligencia artificial para la redacción de textos es un tema de lo más candente. Gran parte del protagonismo se lo lleva, claro, ChatGPT, pero no debemos olvidar que su desarrolladora, OpenAI, ya ofrece GPT-3 desde hace algún tiempo. Y como nos respondía ChatGPT al preguntarle por la diferencia entre ambos servicios, «GPT-3 es un modelo de lenguaje mucho más grande y más avanzado que utiliza una arquitectura de transformadores profunda y preentrenamiento en gran escala para generar texto de alta calidad«.

Dicho de otra manera, de una mucho más humana, al menos en teoría los textos generados por GPT-3 pueden ser empleados en cualquier contexto, incluido el profesional, y eso es algo que a los que nos dedicamos a esto de juntar letras, pues nos deja un poco con la mosca detrás de la oreja, pues la posibilidad de que de un día para otra una inteligencia artificial sea capaz de escribir igual o mejor que uno mismo es una posibilidad que, mal que nos pese, emerge en el horizonte.

Parece, sin embargo, que la tecnología no está aún tan madura como algunos pensaban. Y sí, cuando digo pensaban en realidad me refiero a «intentaron colar sin avisar». Y es que, según publicaba Futurism a principios de mes, CNET había empezado a publicar artículos escritos por una inteligencia artificial, presumiblemente CPT-3. Solo cuando esto se hizo público, el medio empezó a identificar dichos artículos como tales y anunció que pausaba la adopción de esta tecnología. Sí, pausar, lo que salvo cambio de planes indica que es una medida temporal, pues lo cierto es que se plantean retomarla en el futuro.

CNET ha usado inteligencia artificial en sus artículos, ha salido mal

Parece, sin embargo, que el «experimento» (sí, cuando digo experimento en realidad quiero decir «uso encubierto de la inteligencia artificial, haciendo pasar  esos textos por originales y escritos por un ser humano, de ahí las comillas) no ha salido nada bien pues, según podemos leer en The Verge, más de la mitad de los artículos redactados por la IA y publicados por CNET contenían errores. Así, CNET ha tenido que realizar correcciones en 41 de las 77 publicaciones redactadas por la solución de inteligencia artificial empleada por el medio.

Desde información imprecisa hasta frases «poco originales», que es una manera muy amable y muy simpática de referirse al plagio de los textos empleados para entrenar a la inteligencia artificial, los artículos redactados por IA han cobrado todo el protagonismo que a CNET le habría gustado, pero no por las razones que ellos habrían querido. Con un importante añadido: si hubieran indicado desde el principio el origen de dichos textos, la reacción habría sido mucho menos crítica con el medio. Sin embargo, parece ser que al ser humano, al menos de momento no le gusta eso de que un medio intente hacer pasar por un humano a una IA que optimiza los textos para los buscadores por un humano. Muchas gracias, humanidad, por la parte que me toca.

Y aunque en el equipo de MuyComputer hay verdaderos «máquinas», con los que tengo la suerte de compartir espacio, te garantizo que son humanos… y ya quisiera cualquier inteligencia artificial escribir como ellos, te lo aseguro.

Si me dieran una cana por cada contenido que he escrito relacionado con la tecnología... pues sí, tendría las canas que tengo. Por lo demás, música, fotografía, café, un eReader a reventar y una isla desierta. ¿Te vienes?

Lo más leído