Sorpresas en seguridad cibernética: el panorama de amenazas en evolución de 2025


2025 se ha convertido en un año considerable en seguridad cibernética, enfatizado por infracciones inesperadas y las tácticas innovadoras utilizadas por los actores de amenazas. Los expertos en el campo se registran con desafíos en evolución que muchos no esperaban. A medida que el paisaje continúa cambiando, las principales figuras de seguridad cibernética han compartido ideas sobre los desarrollos más sorprendentes hasta ahora y sus implicaciones para las organizaciones.

Chris Acevedo, un consultor principal en Optiv, ha notado una tendencia particularmente alarmante: el rápido progreso del compromiso de AI-E-mail con AI-E-MAIL (BEC). Los atacantes ahora usan herramientas para expandir su alcance a los correos electrónicos de phishing tradicionales, con la ayuda de métodos avanzados, como voces generadas por IA y videos de defake en la comunicación en tiempo real. En el caso de un incidente notable, un empleado recibió un informe de discurso a través de equipos de Microsoft que parecían ser del CFO, por lo que se solicitó con urgencia una transferencia de fondos. La autenticidad del mensaje resultó ser tan convincente que solo estaba claro que era una estafa después de una llamada de seguimiento al CFO real.

Acevedo señaló que esta evolución enfatiza la confianza inherente y la urgencia que está presente en la comunicación ejecutiva. Las implicaciones para los principales oficiales de seguridad de la información (CISO) son claras: las defensas tradicionales como el filtrado de correo electrónico y la autenticación multifactor son insuficientes. Existe una necesidad urgente de flujos de trabajo mejorados para la verificación humana, especialmente para transacciones y organizaciones confidenciales, los procesos de confirmación extranjeros deben implementar que puedan incluir verificación del habla o plataformas de mensajes seguros. Las iniciativas de capacitación también deben evolucionar más allá de las simulaciones de phishing fundamentales, equipar a los empleados con las habilidades de pensamiento crítico necesarios para interrogar la información, incluso si parece creíble.

Ontach Ian Amit, CEO de Gomboc.ai, se sorprendió de que la codificación generativa de IA todavía se considere generalmente como una solución plug-and-play para los desarrolladores. Hizo hincapié en los casos en los que la integración de los asistentes de codificación a nivel de la empresa ha introducido vulnerabilidades de seguridad significativas. La ausencia de un extenso mecanismo de alineación para garantizar la precisión y repetibilidad del código generado por la IA ha resultado en este escenario inquietante. Amit sugiere que sin una práctica sólida para enfrentar estas brechas, la aceptación más amplia de las tecnologías de IA es limitada.

En un contexto industrial más amplio, Jim Alkove, CEO de Oleria, señaló sobre el creciente énfasis en la seguridad de la identidad como un elemento fundamental tanto de la seguridad cibernética como de la participación comercial. Sin embargo, se sorprendió por el hecho de que muchas infracciones controvertidas continúan con los errores de protección de identidad fundamental, incluso dentro de las organizaciones conocidas por su refinamiento. Los recientes ataques de UNC6040 a los clientes de Salesforce sirven como un ejemplo sombrío, donde los métodos tradicionales como los códigos SMS para la autenticación multifactor no pueden evitar el acceso no autorizado para evitar.

Alkove argumenta que las organizaciones realicen evaluaciones de identidad extensas para comprender y reducir los riesgos de acceso. Expresó su preocupación de que, a pesar del crecimiento de las tecnologías de IA, se han producido descansos de seguridad menos grandes relacionados con la IA de lo esperado. Sin embargo, el riesgo potencial sigue siendo considerable porque las organizaciones integran herramientas de IA sin gobernanza de identidad establecida, especialmente con respecto a los agentes autónomos que podrían interrumpir los marcos de identidad convencionales.

Finalmente, Abhay Bhargav, director de investigación de AppSecengineer, reveló su sorpresa sobre la rápida aceptación del modelo de protocolo de contexto (MCP), desarrollado por Anthrope. Este protocolo ha sido elogiado debido al potencial de facilitar la integración perfecta entre los diferentes modelos de IA; Sin embargo, su implementación ha llevado a problemas de seguridad significativos. Bhargav enfatizó que los desarrolladores han pasado por alto aspectos cruciales como fuertes medidas de autorización y un registro de seguridad robusto.

En este paisaje, la prisa por adoptar MCP tiene una reflexión de los patrones pasados donde la conveniencia ha dado prioridad sobre la seguridad. La falta de un modelo de amenaza bien definido antes de la integración en los flujos de trabajo esenciales enfatiza el desafío constante de equilibrar la innovación con razones de seguridad en el imperio en rápida evolución de la tecnología de IA.

Si bien los expertos continúan analizando estos sorprendentes desarrollos, está claro que las organizaciones deben permanecer atentos y proactivas al abordar los nuevos riesgos asociados con el desarrollo de la tecnología. El llamado a mejorar las medidas de seguridad, en particular a la luz de las tácticas en evolución y el SIDA utilizada por los ciberdelincuentes, nunca ha sido tan crítico.



Fuente

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí