Inicio / Noticias / Tecnología / Ciberseguridad e inteligencia artificial: ¿qué nos depara 2025?

Ciberseguridad e inteligencia artificial: ¿qué nos depara 2025?

La inteligencia artificial (IA) ha ocasionado importantes implicaciones tanto para las empresas, como para los usuarios de la web. ESET, compañía líder en detección proactiva de amenazas, advierte que mientras que la tecnología de IA ayuda a los defensores a mejorar la seguridad, los actores maliciosos no pierden el tiempo en aprovechar las herramientas potenciadas por IA, por lo que es esperable un aumento de las estafas, la ingeniería social, el fraude de cuentas, la desinformación y otras amenazas.

A principios de 2024, el Centro Nacional de Ciberseguridad del Reino Unido (NCSC) advirtió que la IA ya está siendo utilizada por todo tipo de actores de amenazas y que casi con toda seguridad aumentará el volumen y el impacto de los ciberataques en los próximos dos años. La amenaza es más grave en el contexto de la ingeniería social, donde la IA generativa (GenAI) puede ayudar a los actores maliciosos a elaborar campañas muy convincentes en idiomas locales impecables; o en el reconocimiento, donde la IA puede automatizar la identificación a gran escala de activos vulnerables.

Aunque estas tendencias continuarán sin duda en 2025, es posible que también se vea el uso de la IA para:

Eludir la autenticación: La tecnología Deepfake se utiliza para ayudar a los estafadores a hacerse pasar por clientes en selfies y comprobaciones basadas en vídeo para la creación de nuevas cuentas y el acceso a cuentas.

Compromiso del correo electrónico comercial (BEC): La IA utilizada para la ingeniería social, pero esta vez para engañar a un destinatario corporativo para transferir fondos a una cuenta bajo el control del estafador. El audio y el vídeo falsos también pueden utilizarse para hacerse pasar por directores generales y otros altos cargos en llamadas telefónicas y reuniones virtuales.

Estafas de suplantación de identidad: Los grandes modelos lingüísticos (LLM) de código abierto ofrecerán nuevas oportunidades a los estafadores. Al entrenarlos con datos extraídos de cuentas de redes sociales pirateadas o de acceso público, los estafadores podrían suplantar la identidad de las víctimas en secuestros virtuales y otras estafas diseñadas para engañar a amigos y familiares.

“Una vez acaparada por el modelo de IA, esta información representa un riesgo para las personas si el propio sistema de IA es pirateado. O si la información se comparte con otros a través de aplicaciones GenAI que se ejecutan sobre el LLM. También existe la preocupación de que los usuarios corporativos compartan involuntariamente información sensible relacionada con el trabajo a través de los mensajes de GenAI. Según una encuesta, una quinta parte de las empresas británicas han expuesto accidentalmente datos corporativos potencialmente sensibles a través del uso de GenAI por parte de sus empleados.”, comenta Camilo Gutiérrez Amaya, Jefe del Laboratorio de Investigación de ESET Latinoamérica.