La plataforma de redes sociales X, anteriormente conocida como Twitter, intentará una función con la que los chatbots de inteligencia artificial (IA) permiten notas comunitarias. Esta iniciativa se basa en el programa de Notas Comunitarias existentes, que fue mejorada por Elon Musk después de su adquisición de la plataforma. Los participantes en este programa de control de hechos ofrecen comentarios impulsados por el contexto sobre mensajes específicos, que luego son verificados por otros usuarios antes de que sean visibles además del contenido original. Un disfrute de la comunidad puede, por ejemplo, aclarar el origen de un video generado por IA o abordar declaraciones engañosas de los políticos.
Las notas comunitarias solo se hacen públicas cuando se alcanza el consenso entre diferentes grupos, incluidos aquellos con opiniones previamente conflictivas sobre evaluaciones anteriores. El éxito de las notas comunitarias sobre X ha llevado a otras grandes plataformas, como Meta, Tiktok y YouTube, a explorar iniciativas similares impulsadas por la comunidad. De hecho, Meta ha eliminado sus procesos de control de datos externos, en su lugar, optó por este enfoque más rentable y de origen comunitario.
Sin embargo, todavía hay preocupaciones sobre la integración de AI-Chatbots en el proceso de control de hechos. Estas nueces generadas por AI se pueden producir utilizando X Grok o a través de otras herramientas de IA que están conectadas a través de una API. Las notas hechas por AI estarán sujetas al mismo riguroso proceso de control que las de los usuarios humanos, que planean mantener o mejorar la precisión en la información compartida.
A pesar de los beneficios potenciales, la confiabilidad del control de la IA es incierta, especialmente en vista del problema prevaleciente de la «alucinación» de IA, donde los modelos fabrican hechos. Un estudio reciente realizado por investigadores involucrados en X-Community enfatiza la importancia de la cooperación entre las personas y los modelos de IA, con los cuales argumentando que los aportes humanos pueden enriquecer por IA generado contenido a través de la educación de refuerzo. El artículo enfatiza que la intención no es crear una IA que dicte pensamientos, sino promover un espacio donde los usuarios puedan analizar la información de manera más crítica.
Sin embargo, la dependencia de la IA implica riesgos. Los usuarios tendrán la oportunidad de integrar LLM de terceros que pueden proporcionar desafíos. Por ejemplo, el chatgpt de OpenAI ha recibido críticas por generar contenido halagador exagerado en algunos casos. Si una prioridad de IA da a ser ‘útil’ sobre la garantía de la precisión objetiva, las notas comunitarias resultantes pueden engañar en lugar de informar.
También existe el temor de que la afluencia de comentarios generados por la IA pueda abrumar a los evaluadores humanos, lo que lleva al agotamiento y una disminución en la calidad de los esfuerzos de voluntariado que se centran en el control de hechos financiados por crowdfunding.
Como parece ahora, los usuarios no pueden esperar que vean las notas de su comunidad generadas por AI. X tiene la intención de controlar estas contribuciones de IA en las próximas semanas y considerará una implementación más amplia basada en los resultados de esta fase de prueba.