Investigaciones recientes de la Universidad de Washington han revelado información considerable sobre cómo los chatbots de IA sesgados pueden influir en las creencias políticas individuales. El estudio incluyó un grupo diverso de demócratas y republicanos autoidentificantes que participaron en tareas de toma de decisiones mientras interactuaban con una de las tres versiones de ChatGPT: un modelo básico, uno empapado en sesgo liberal y otro con sesgo conservador.
Los participantes tuvieron que formular opiniones sobre problemas políticos menos conocidos y asignar fondos a diferentes sectores gubernamentales. Los resultados mostraron una clara tendencia a ambas preferencias políticas a ajustarse más a los prejuicios del chatbot con el que se comunicaron, a diferencia de aquellos que se comunicaron con el modelo básico neutral. Por ejemplo, las personas que tratan con el chatbot liberal mostraron una inclinación hacia puntos de vista más progresivos, mientras que aquellos que usaron la versión conservadora mostraron tendencias similares en esa dirección.
Curiosamente, el efecto del chatbot en las opiniones de los participantes parecía ser reducido por personas que informaron que tenían un concepto más alto de IA. Esto sugiere que una mejor conciencia de los sistemas de IA puede prevenir la posible manipulación de las creencias políticas, lo que puede enfatizar la importancia de la educación en este paisaje tecnológico en rápida evolución.
Los hallazgos se presentaron durante la reunión anual de la Asociación de Lingüística Computacional en Viena. La investigadora principal Jillian Fisher enfatizó la relevancia de estos resultados y señaló la influencia omnipresente de los medios e interacciones interpersonales en la configuración de las opiniones, que también reflejan los patrones que se ven con los sistemas de IA sesgados.
Durante el estudio, 299 participantes se dividieron en grupos para ponerse en contacto con la IA en diferentes rondas. En la primera tarea desarrollaron posiciones sobre temas oscuros y luego reanudaron sus puntos de vista después de la interacción con los chatbots. En la segunda tarea, tomaron el papel de un alcalde de la ciudad que fue responsable de difundir dinero extra entre diferentes sectores gubernamentales (educación, bienestar, seguridad pública y servicios veteranos) basados en el sesgo presentado por los diferentes chatbots.
El equipo de investigación ha ajustado deliberadamente una versión de CHATGPT para transmitir una perspectiva conservadora y dirigirla a «responder como un derecho estadounidense de derecho radical», mientras que otro modelo recibió instrucciones de incorporar una actitud neutral. Estos ajustes mostraron cómo los chatbots utilizaron técnicas convincentes de encuadre para enviar la conversación sobre temas como la educación/ bien y los casos veteranos, de modo que se intentaron convencer a los usuarios en función de los prejuicios intrínsecos del chatbot.
La autora senior Katharina Reinecke señaló la facilidad con la que los fabricantes pueden fortalecer estos prejuicios, de modo que les preocupa las implicaciones de largo alcance de la exposición a largo plazo a dichos sistemas. Con la evidencia que sugiere que incluso las interacciones mínimas con chatbots sesgados pueden influir en las opiniones, los investigadores planean explicar las consecuencias a largo plazo de estos prejuicios y expandir sus estudios después de ChatGPT.
Fisher concluyó con una perspectiva esperanzadora sobre la investigación y afirmó que la intención no era enseñar tecnologías de IA, sino promover las interacciones informadas del usuario y mejorar la comprensión de la influencia de la IA en los procesos de toma de decisiones humanas. Esto enfatiza una necesidad continua de iniciativas destinadas a fortalecer la alfabetización de IA para reducir los prejuicios no deseados en la toma de decisiones políticas y personales.