Web Analytics
Conecta con nosotros

Noticias

La inteligencia artificial como influencia negativa

Publicado el
La inteligencia artificial como influencia negativa

La inteligencia artificial ya tiene una presencia muy clara en nuestras vidas. En muchos casos no somos conscientes de ello, pero cuando, por ejemplo, Google ordena los resultados de una búsqueda basándose en tu historial de navegación y, por lo tanto, en lo que entiende que son tus gustos, la estás viendo en acción. Y lo mismo cuando Siri te responde adaptándose a tus circunstancias, o cuando una web te sugiere destinos turísticos, detrás de todas esas acciones hay inteligencia, inteligencia artificial.

Así pues, podemos hablar de que la inteligencia artificial no es que esté presente en nuestras vidas, sino que influye en nuestras vidas. Muchas de las elecciones que tomamos, vienen determinadas por un subconjunto de opciones que ya han sido preseleccionadas por una IA que presuponemos bienintencionada, y que pretende facilitarnos las elecciones, reduciendo el número de opciones y excluyendo aquellas que, al menos en teoría, no se adaptan a nuestras preferencias.

Esta preselección «a la carta» ya ha sido identificada como un peligroso potenciador del sesgo de confirmación: cuando las redes sociales solo nos muestran informaciones que, verdaderas o falsas, sirven para confirmar aquellos supuestos que ya damos por válidos, aún cuando haya elementos dentro de dichas informaciones que desacredita su veracidad. Tenemos un ejemplo muy claro de ello todos los días en las discusiones sobre política en redes sociales. Allí podemos ver como las noticias falsas, aún cuando analizadas objetivamente no son creíbles, son aceptadas porque refuerzan la opinión propia. La preselección de contenidos por la inteligencia artificial abunda en este problema.

Existe una preocupación creciente entre los académicos de que la inteligencia artificial pueda ser empleada por actores maliciosos para fomentar la discordia mediante la difusión de información errónea, desinformación y otros tipos de mentiras. En un artículo publicado por el Centro sobre Terrorismo, Extremismo y Contraterrorismo (CTEC) del Instituto de Estudios Internacionales de Middlebury, los coautores comprobaron que GPT-3, el sucesor de GPT-2, podía generar textos supuestamente informativos que podrían «radicalizar a las personas en ideologías y comportamientos violentos de extrema derecha«, tal y como se muestra en el estudio.

La inteligencia artificial como influencia negativa

Inteligencia artificial y ética

Pero este, aún siendo grave, no es el mayor problema al que nos enfrentamos, como nos demuestra un interesantísimo estudio titulado The corruptive force of AI-generated advice y que ha sido llevado a cabo por investigadores de la Universidad de Ámsterdam, el Instituto Max Planck, la Escuela de Administración Otto Beisheim y la Universidad de Colonia. Como su propio nombre indica, su objetivo era comprobar si una inteligencia artificial malintencionada podría persuadir a las personas para que tomen decisiones éticamente cuestionables.

En este estudio, los investigadores entrenaron una instancia de GPT-2 para que fuera capaz de generar consejos que promovieran la honestidad, y otros que hicieran justo lo contrario, es decir, instar a mantener actitudes deshonestas y poco éticas, empleando para ello un conjunto de datos generado por al alrededor de 400 participantes. Una vez entrenada la IA, se creo un grupo de más de 1.500 personas que tendrían que someterse a una prueba definida por los investigadores, y que pondría a prueba la respuesta de los participantes al recibir los consejos de la IA.

Los resultados del estudio son tan imaginables como desalentadores: los mensajes «corruptores» se mostraron bastante más efectivos que los que alentaban a los usuarios a comportarse de manera ética, lo que demuestra que una inteligencia artificial entrenada para ello, puede, especialmente en situaciones de duda, decantar la balanza en sentido negativo, influenciando a personas a tomar decisiones aún cuando sean conscientes de que éstas son moralmente reprobables o incluso claramente incorrectas.

Si la inteligencia artificial se reviste con un halo de fiabilidad, su grado de influencia puede llegar a ser aún mayor en base al sesgo de autoridad, otro destacable sesgo cognitivo que ya fue probado por el psicólogo Stanley Milgram en su famosa serie de experimentos, en los que se empleó para intentar encontrar una explicación psicológica a lo ocurrido en la Alemania nazi con el intento de exterminio de los judíos. El experimento demostró que, sometidos a una figura considerada como autoridad, otras personas pueden actuar en contra de sus propios principios.

La IA podría ser una fuerza positiva si logra convencer a las personas de que actúen de manera más ética. Sin embargo, nuestros resultados revelan que los consejos de la IA no aumentan la honestidad. Los asesores de IA pueden servir como chivos expiatorios a los que uno puede desviar (parte de) la culpa moral de la deshonestidad. Además… en el contexto de la toma de consejos, la transparencia sobre la presencia algorítmica no es suficiente para aliviar su daño potencial”, escribieron los investigadores.

Cuando los consejos generados por IA se alinean con las preferencias de las personas de mentir con fines de lucro, lo siguen con gusto, incluso cuando saben que la fuente del consejo es una IA. Parece que hay una discrepancia entre las preferencias declaradas y el comportamiento real, lo que destaca la necesidad de estudiar el comportamiento humano en interacción con los resultados algorítmicos reales«.

Si me dieran una cana por cada contenido que he escrito relacionado con la tecnología... pues sí, tendría las canas que tengo. Por lo demás, música, fotografía, café, un eReader a reventar y una isla desierta. ¿Te vienes?

5 comentarios
  • iso9660

    Teniendo en cuenta la nula empatía que puede sentir una inteligencia artificial creo lo más cerca a nivel cognitivo que puede estar una máquina de un ser humano es el de un psicópata. Y teniendo en cuenta la cantidad de datos con la que Google y demás con toda su legión de adeptos han estado alimentando a sus inteligencias artificiales, personalmente no me sentiría muy seguro utilizando ninguno de sus servicios.

  • doc

    El manejo de la opinión pública a través del -perdoname la redundancia- manejo de la información es tan viejo como los diarios, libros y revistas. La única diferencia hoy es la velocidad y el alcance que tienen herramientas como los buscadores. De hecho, si nos ponemos finos, nosotros acotamos las búsquedas para no tener que explorar demasiado, además de leer los titulares y no mucho mas para formarnos opinión sobre un tema. Yo diría que el mayor problema somos nosotros y nuestra pobre educación. Si no queremos debatir los temas, profundizarlos, aceptar otras opiniones, en fin, ser abiertos y racionales, no le podemos echar la culpa a una IA.
    Entiendo que las IA pueden ser un peligro, pero la llevábamos muy bien haciendo desastres antes de que apareciera Google y Cia. Seguimos teniendo serios problemas de educativos y culturales que hacen que herramientas que podrían ser muy beneficiosas se usen mal, pero la solución no es suprimir la herramienta.

  • Gregorio Ros

    Como toda herramienta en buenas manos muy útil, en manos «interesadas», como por desgracia es posible que esté, un arma masiva.

  • Arcangel

    Mas peligroso es dejar que algoritmos o bots programados para seguir una agenda progress en ciertos sitios webs y redes sociales y que actuan moderadores sin intervención humana bannean y bloquean cuentas de usuarios cuando emiten una opinión que les son contrarias a sus intereses. La I.A. es usada como arma de represión y censura.

  • Varan Rosev

    Los resultados del estudio son tan imaginables como desalentadores: los mensajes corruptores se mostraron bastante más efectivos que los que alentaban a los usuarios a comportarse de manera ética, lo que demuestra que una inteligencia artificial entrenada para ello, puede, especialmente en situaciones de duda, decantar la balanza en sentido negativo, influenciando a personas a tomar decisiones aún cuando sean conscientes de que éstas son moralmente reprobables o incluso claramente incorrectas.

    Yo no veo tanta controversia, es decir, no es algo que me sorprenda partiendo del hecho de que los sujetos seleccionados para el estudio seguramente formarán parte (como la mayoría del planeta) de una sociedad en la que se prima el individualismo extremo, el medrar y el sálvase quien pueda. La mayoría de la gente sabe diferenciar perfectamente entre comportamientos éticos y no éticos, pero nos han educado en una cultura en la que se da por sentado que si quieres «triunfar» tienes que pasar por encima de los que se te pongan por delante, y si además se da el hecho de que gran parte de la población no tiene garantizada ni la cobertura de unas necesidades vitales mínimas, pues ese conjunto no contribuye en absoluto a que reducir los comportamientos no éticos. Como se dice en mi pueblo, «se junta el hambre con las ganas de comer».

Lo más leído