Los informes indican que un aumento sorprendente del 400 por ciento en incidentes con respecto al abuso sexual de niños fue generado por herramientas de inteligencia artificial en la primera mitad de 2025. Este aumento alarmante se enfatiza en los nuevos hallazgos de la Fundación de Vigilancia de Internet (IWF), una organización sin fines de lucro con sede en Gran Bretaña, en Gran Bretaña, en Gran Bretaña en Gran Bretaña en Gran Bretaña en Gran Bretaña.
En los primeros seis meses de 2025, el IWF registró 210 páginas web que contienen contenido generado por IA, un salto considerable de solo 42 en el mismo período de tiempo para 2024. Las páginas organizaron conjuntamente 1.286 videos, un aumento drástico de solo dos videos, el año anterior. Disturadora, la mayoría de estas imágenes generadas por AI era tan realista que tenía que ser tratada bajo la ley británica como si fueran las imágenes reales de explotar a los niños.
El informe de IWF muestra que alrededor del 78 por ciento de los videos, que 1.006 Stot, fueron clasificados como «Categoría A», la clasificación más seria. Esta categoría incluye las imágenes más espantosas, que incluyen cuerpos de violación, tortura sexual y bestialidad. Muchos de los videos en particular se referían a retratos de niñas e incluso usaron la parábola de niños reales.
A medida que la prevalencia global del material generado por el material para el abuso infantil continúa aumentando, las agencias de aplicación de la ley están cada vez más alertas. Ahora que las herramientas generativas de IA se están volviendo más accesibles y más refinadas, la calidad de estas imágenes y videos ha mejorado enormemente, por lo que la detección es complicada a través de los métodos tradicionales. A diferencia de las iteraciones anteriores del contenido, que a menudo eran cortos e impactantes, el IWF ahora se encuentra con producciones más largas y complicadas con escenas complejas y diversas instituciones. Esta tendencia inquietante llama preocupación por el uso del material en caso de intimidación y extorsión.
Derek Ray-Hill, director ejecutivo interino de la IWF, expresó la gravedad de la situación y declaró: «Del mismo modo que vimos con imágenes estacionarias, los videos de abuso sexual de niños ahora han llegado al punto de que no pueden distinguir de las películas reales». Hizo hincapié en que los niños representados son a menudo reales e identificables, lo que subraya el daño genuino y la amenaza creciente que forma este material.
Las agencias legales de aplicación de todo el mundo están comenzando a aumentar sus esfuerzos para combatir este problema. A principios de 2024, Europol realizó una operación coordinada que condujo al arresto de 25 personas involucradas en la distribución de dicho material, mientras que más de 250 sospechosos fueron identificados en 19 países diferentes.
A la luz de estos desarrollos, el IWF ha pedido establecer un marco regulatorio en Great -Britrain para hacer cumplir los controles de los modelos de IA para evitar la producción de contenido ofensivo. En febrero de 2024, Gran Bretaña en particular se convirtió en la primera nación en crear el establecimiento y distribución de instrumentos de IA que fue diseñado para producir contenido del abuso infantil. La nueva legislación no solo prohíbe la posesión de modelos de IA que están optimizados para generar dicho material, sino también la distribución de manuales de instrucciones que se adaptan a los perpetradores.
En los Estados Unidos, el Centro Nacional para Niños Desaparecidos y Explotados informó a más de 7,000 autoridades con respecto al abuso sexual de niños sexual generado por IA en 2024. Aunque muchas herramientas comerciales de IA contienen protecciones contra la creación de contenido insultante, quedan algunos modelos de código abierto o adaptados para abusos.