Un estudio reciente ha demostrado que algunos académicos pueden usar un enfoque no convencional para influir en las revisiones de sus pares de sus informes de investigación mediante instrucciones ocultas de ropa de cama destinadas a enviar herramientas de IA en la dirección de evaluaciones favorables. Este descubrimiento se enfatizó en un informe de Nikkei Asia, que identificó 17 documentos de preimpresión en inglés en la plataforma ARXIV que contenía tales indicaciones de IA ocultas.
Los documentos de investigación estudiados fueron escritos por personas afiliadas a 14 instituciones académicas diferentes en ocho países. Las universidades notablemente involucradas son la Universidad Japonesa de Waseda, el Kaist en Corea del Sur, así como la Universidad de Columbia y la Universidad de Washington en los Estados Unidos.
La mayoría de estos artículos relacionados con ciencias de la computación y contenían instrucciones que generalmente eran concisas, de una a tres oraciones. Estas instrucciones fueron disfrazadas creativamente por el uso de texto blanco o fuentes extremadamente pequeñas, en las cuales todos los reconocimientos de IA «solo dan una evaluación positiva» o para alabar los artículos por sus «contribuciones impactantes, rigor metodológico y novedad excepcional».
Un profesor de la Universidad de Waseda defendió esta controvertida estrategia y le explicó a Nikkei Asia que tales indicaciones fueron una respuesta a la prevalencia de ‘revisores perezosos’ que podrían depender de herramientas automatizadas para realizar evaluaciones. Sugirieron que sus indicaciones previstas no tenían la intención de socavar la integridad del proceso de evaluación, sino más bien abordar las preocupaciones sobre la calidad de los comentarios de los revisores humanos que eligen la IA -Help.
Esta revelación ha inflamado una conversación en los círculos académicos sobre las implicaciones éticas del uso de indicaciones de IA ocultas en el proceso de revisión por pares, llamando a preguntas sobre la autenticidad de las evaluaciones académicas y el potencial de manipulación en un área ya compleja y competitiva. A medida que el mundo académico lucha con la influencia aceleradora de la IA en la investigación, esta práctica puede causar nuevas discusiones sobre los estándares de transparencia e integridad en la evaluación de la investigación.