En una tendencia sorprendente, muchos adolescentes están formando vínculos emocionales profundos con la inteligencia artificial, confundiendo a menudo los chatbots con confidentes de confianza o, en algunos casos, parejas románticas. Este desarrollo ha captado la atención tanto de educadores como de padres, ya que estas herramientas digitales, originalmente destinadas a facilitar el aprendizaje, se están reutilizando de maneras que no se habían previsto.
Una encuesta nacional del Centro para la Democracia y la Tecnología (CDT) encontró que el 20% de los estudiantes de secundaria alguna vez han estado involucrados o conocen a alguien que ha desarrollado sentimientos románticos por un chatbot de IA. Además, el 42% reconoció que utiliza chatbots como apoyo emocional, usándolos a menudo como sustituto de conexiones reales. Los hallazgos resaltan una tendencia preocupante en la que los estudiantes, que luchan cada vez más contra la ansiedad, la soledad y los problemas de identidad, buscan consuelo en interacciones impulsadas por IA que brindan una sensación de seguridad sin juicios.
Aunque muchos profesores y estudiantes utilizan la IA de diferentes maneras, las formas en que estas herramientas se integran en la educación varían ampliamente. Las escuelas se han apresurado a integrar plataformas como Khanmigo y las herramientas de inteligencia artificial de Google Classroom, que han sido elogiadas por satisfacer diversas necesidades de aprendizaje. Sin embargo, los marcos éticos necesarios para el uso responsable de la IA siguen estando poco desarrollados.
El informe del CDT muestra que el 31% de los estudiantes ha utilizado herramientas de inteligencia artificial de las escuelas por motivos personales. La falta de orientación puede desdibujar la línea entre los asistentes académicos y los compañeros emocionales, especialmente con los chatbots diseñados para la interacción personal, como Replika o Character.AI. Estas plataformas pueden fomentar intercambios íntimos que plantean preocupaciones éticas.
Esta tendencia se produce en el contexto de la escalada de problemas de salud mental entre los adolescentes. Los CDC informaron que más del 40% de los estudiantes de secundaria expresaron sentimientos de tristeza persistente o desesperanza ya en 2021. Si bien los chatbots de IA brindan una salida sin prejuicios para las conversaciones, los expertos enfatizan que no reemplazan a los terapeutas capacitados. Además, existen preocupaciones sobre qué datos recopilan estos sistemas y cómo se utilizan.
La encuesta CDT destacó además la falta de educación estructurada sobre el uso de la IA, revelando que sólo un pequeño porcentaje de estudiantes y padres son conscientes de los riesgos que plantea. Mientras tanto, los incidentes de seguridad de datos, como la recopilación no autorizada y los ataques de ransomware, se están volviendo cada vez más comunes, afectando especialmente a poblaciones vulnerables como los estudiantes transgénero e inmigrantes. Los sistemas de monitoreo automatizados destinados a garantizar la seguridad a menudo carecen de los matices necesarios para abordar las complejidades relacionadas con la identidad.
A medida que aumenta el uso de la IA en la educación, los expertos advierten que sin directrices claras y debates informados, los estudiantes pueden quedar emocionalmente expuestos y mal preparados para las implicaciones de sus interacciones con una tecnología que imita la conexión humana pero que carece de verdadera empatía.