Las grandes empresas de tecnología promueven la inteligencia artificial generativa (IA) como transformadora e innovadora, lo que sugiere que reformará varios aspectos de la sociedad. Investigaciones recientes publicadas por Oxford University Press, sin embargo, desafían esta historia optimista y revela importantes prejuicios en el resultado generado por la salida al mostrar temas australianos.
La investigación investigó las imágenes realizadas por varias herramientas de IA generativas prominentes, incluidas Adobe Firefly, Dream Studio, Dall-E 3, Meta AI y MidJourney. Al introducir 55 indicaciones de texto con respecto a Australia y los australianos, los investigadores intentaron descubrir las percepciones subyacentes de estos sistemas de IA. El análisis reveló una tendencia inquietante: las imágenes generadas a menudo confiaban estereotipos obsoletos y una visión limitada de la identidad australiana.
Entre las 700 imágenes recolectadas incluyen temas conjuntos que recuerdan a una visión idílica y algo nostálgica de Australia. Esto a menudo incluía paisajes con Uluru, vistas de Outback resistentes y representaciones de «australianos bronceados». Estas representaciones contienen principalmente familias blancas y suburbanas, que reforzaron las imágenes estrechas y de exclusión de la identidad australiana.
Al investigar imágenes de la dinámica de la dinámica familiar, la investigación mostró que las «madres australianas» se mostraban principalmente como mujeres blancas y rubias en escenas domésticas tranquilas. En marcado contraste, las únicas excepciones aparecieron en la producción de Firefly, que representan a las mujeres asiáticas sin lazos claros con la maternidad. En el caso de los ‘Padres Australianos’, las representaciones reflejaron prejuicios similares, que los muestran en entornos al aire libre que a menudo tienen interacción con la vida silvestre en la naturaleza, incluidas imágenes poco realistas como un padre que sostiene una iguana.
Los hallazgos con respecto a los australianos aborígenes fueron particularmente inquietantes. Cuando las indicaciones estaban relacionadas con los australianos indígenas, las imágenes producidas a menudo repetidas estereotipos coloniales, en los que las familias aborígenes se muestran con una luz «salvaje» y «incivilizada». La IA generativa tuvo dificultades para producir representaciones respetuosas y precisas sin instrucciones explícitas para la diversidad entre los temas.
Curiosamente, la investigación enfatizó las discrepancias en las representaciones de vivienda para varios datos demográficos. Un estudio sobre «una casa de un australiano aborigen» condujo a imágenes de una cabaña poco realista con techo de hierba, en contraste con la casa de ladrillos generada en los suburbios para «una casa de un australiano», que reflejaba una visión más convencional y que decía la vida australiana.
Las actualizaciones recientes en los modelos de IA no han demostrado una mejora significativa en el abordaje de estos prejuicios. Una prueba con el último modelo de OpenAI, GPT-5, produjo imágenes reductivas similares de casas australianas y aborígenes, lo que indica que los problemas persisten.
Estos hallazgos plantean preguntas cruciales sobre las implicaciones sociales de la IA generativa. Dada la integración generalizada de estas herramientas en las redes sociales, las aplicaciones creativas y las plataformas educativas, el riesgo de propagar estereotipos nocivos se convierte en una preocupación. Muchos sistemas de IA están capacitados en datos que pueden reducir las ricas identidades culturales e historia a simples clichés, un hecho de que la necesidad urgente de una representación de datos más inclusiva y precisa subraya.
Si bien la IA generativa continúa evolucionando y extendiéndose, el llamado a un enfoque más concienzudo en su diseño y entrenamiento se está volviendo cada vez más urgente. La capacidad de mantener prejuicios sistémicos no solo afecta la representación de los australianos, sino que también refleja una actitud social más amplia hacia la raza y la cultura.