Los bots de IA en las redes sociales desarrollan salas de ultrasonido tóxicas a pesar de la falta de algoritmos


Un nuevo estudio realizado por investigadores de la Universidad de Amsterdam ha revelado ideas alarmantes sobre el comportamiento de los chatbots de IA cuando se colocan en un entorno de redes sociales. Su experimento incluyó construir una red social mínima sin anuncios, mensajes recomendados y algoritmos que generalmente organizan la interacción del usuario. En cambio, los investigadores han llenado esta plataforma con 500 chatbots impulsados por el MINI GPT-4O de Opensei, cada uno de los cuales representa diferentes personajes con diferentes tendencias políticas basadas en el conjunto de datos de estudios nacionales de elecciones estadounidenses. Este conjunto de datos incluye un amplio espectro de características reales, que incluyen edad, género, ingresos, educación, sesgo, ideología, religión e intereses personales.

El estudio, co-lideraz del Dr. Petter Törnberg y el ingeniero de investigación Maik Larooij, tenía la intención de investigar si la IA podría manifestar patrones relacionados con los observados en las poblaciones humanas en las redes sociales. Curiosamente, los experimentos también se replicaron con la ayuda de diferentes modelos, incluidos Lama-3.2-8b y Deepseek, lo que resultó en un comportamiento similar, lo que subraya la robustez de los hallazgos.

En el curso de cinco pruebas, con cada prueba con más de 10,000 interacciones, los chatbots mostraron notables dinámicas sociales. Los bots comenzaron a formar cámaras de ultrasonido al luchar por personas con opiniones políticas similares y aislarse efectivamente en grupos cercanos. A medida que se desarrollaron sus interacciones, se hizo cada vez más claro que las voces particular no solo recibieron atención, sino que también condujeron a una concentración de seguidores en los postes más extremos. Esta tendencia refleja la dinámica común en plataformas existentes como X e Instagram, donde un pequeño marco de influencers monopoliza las discusiones.

A pesar de los intentos de los investigadores de polarización moderada a través de diferentes intervenciones, incluidos los alimentos cronológicos, los postes virales de reducción y el refuerzo de las opiniones opuestas, no ha aliviado con éxito la toxicidad emergente. Aunque se descubrió que algunas estrategias tienen ligeros efectos positivos, en última instancia, no abordan los problemas subyacentes. Los investigadores señalaron que las mejoras en un área a menudo han empeorado problemas en el otro, lo que sugiere que las disfunciones arraigadas profundas pueden estar enraizadas en la arquitectura de las redes sociales mismas en lugar de los algoritmos.

«Nuestros hallazgos desafían la opinión común de que las disfunciones de las redes sociales son principalmente el resultado de la curación algorítmica», dijeron los autores. Argumentaron que estos problemas pueden resultar de redes que prosperan en un reactivo emocional, lo que indica un problema más profundo dentro del diseño de plataformas de redes sociales.

Este estudio se posiciona como uno de los primeros esfuerzos para utilizar la IA para promover la teoría de las ciencias sociales. Aunque en los agentes basados en el modelo de lenguaje grande (LLM) pueden simular el comportamiento humano y dar información valiosa sobre las interacciones sociales, los investigadores advirtieron que no están exentos de riesgos. El potencial de sesgo integrado y la naturaleza opaca del funcionamiento de la IA se preocupan por su aplicación en la dinámica social.

Este no es el primer viaje que experimenta con IA en las redes sociales. A principios de este año, una iniciativa diferente bajo el liderazgo de Törnberg incluía un uso similar de los chatbots destinados a investigar cuán menos interacciones en línea polarizadas hacer en medio de un entorno de redes sociales simulados. Ese proyecto tenía como objetivo promover el diálogo entre partidos sin proporcionar hostilidad, el énfasis en la complejidad de diseñar plataformas en línea que promuevan el discurso civil.

En una era en la que las grandes empresas de tecnología también investigan las implicaciones de la IA en los contextos en las redes sociales, esta investigación ofrece ideas críticas que pueden informar los desarrollos futuros en la IA y las redes sociales. Las conclusiones del estudio sirven como una memoria que, aunque las interacciones digitales están evolucionando, la tendencia a la polarización y la toxicidad puede seguir siendo un desafío importante.



Fuente

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí