Tecnologia
Tendencia

¡Cuidado con los ataques de phishing creados por Deepfakes y GenAI!

Según encuesta de Bitdefender, el 96% de los profesionales de ciberseguridad consideran que la IA es una amenaza significativa.

EYNG, 09/07/2024. ¿Has visto el vídeo de David Beckham hablando nueve idiomas? ¿Has recibido un correo electrónico de Taylor Swift vendiendo utensilios de cocina Le Creuset o de Jennifer Aniston regalando MacBooks gratis? Todos estos videos son falsos. Hoy en día los ataques de phishing son cada vez más sofisticados gracias a la rápida evolución y adopción de la inteligencia artificial generativa (GenAI). De hecho, la tecnología se está volviendo terriblemente buena.

Por ello, Bitdefender recientemente publicó los resultados de la encuesta del Informe de Evaluación de Ciberseguridad 2024 donde revela un enigma interesante en la industria de la ciberseguridad. Según el informe, casi tres cuartas partes de los profesionales de la ciberseguridad creen que son lo suficientemente inteligentes como para detectar ataques deepfake. Sin embargo, el 96% dice que GenAI representa una amenaza significativa para su organización. ¿Estamos demasiado confiados o demasiado preocupados?


¿Qué es el phishing? «Es un tipo de ataque de ingeniería social y ciberseguridad en el que el atacante se hace pasar por otra persona a través del correo electrónico u otros métodos de comunicación electrónica, incluidas las redes sociales y los mensajes de texto del Servicio de mensajes cortos (SMS), para revelar información confidencial».


La explicación simple es que los profesionales de la ciberseguridad confían en sus propias capacidades para detectar y contrarrestar ataques creados por herramientas GenAI, pero tienen menos confianza en la capacidad de sus usuarios para detectar deepfakes. Para las personas con amplia experiencia en ciberseguridad, es fácil pensar que no pueden dejarse engañar, pero la realidad es que la tecnología GenAI se ha vuelto tan buena que es poco probable que incluso los profesionales de ciberseguridad más experimentados distingan cada intento de deepfake de lo real.

Impacto en las organizaciones actuales

Para los equipos de seguridad empresarial, el peligro de ataques de phishing cada vez más sofisticados no podría ser más claro. Los actores de amenazas utilizan GenAI para generar correos electrónicos, fotos, grabaciones de voz y videos increíblemente creíbles basados ​​en una enorme cantidad de información sobre personas y organizaciones. Ahora pueden ir más allá de la voz y la apariencia para incluir comportamientos, sintaxis, preferencias y tendencias específicas. Junto con campañas de ingeniería social que identifican qué software financiero utiliza la organización, los bancos donde tienen cuentas y los procesos y políticas internos, los deepfakes pueden ser increíblemente precisos, personales y difíciles de detectar.

Pero no todo está perdido…

Según Bitdefender, los equipos de seguridad pueden combatir las amenazas que se han creado con la tecnología GenAI con una estrategia que involucra personas, procesos y tecnología. La capacitación puede ayudar a los usuarios a identificar ataques deepfake o al menos hacer una pausa antes de aceptarlos ciegamente como verdad. Esto incluye la construcción de una cultura de rendición de cuentas. Sin duda, las personas deben asumir la responsabilidad de las acciones que realizan, pero también deben estar empoderadas para cuestionar solicitudes sospechosas, especialmente cuando provienen de sus gerentes o personas de alto nivel en la jerarquía corporativa. Esto requiere construir una cultura en toda la organización que desafíe a las personas a hacer preguntas, obtener confirmaciones y responsabilizarse a sí mismas y a otras personas.

Además, los especialistas Bitdefender sugieren implementar procesos que permitan esta cultura de responsabilidad. Esto podría incluir el requisito de obtener la confirmación de dos personas para ejecutar transacciones grandes. O la integración de barreras de seguridad en los procesos comerciales habituales que puede contribuir en gran medida a proteger a la organización de errores vergonzosos o financieramente desastrosos.

Las organizaciones pueden combatir el fuego con fuego

Según Bitdefender, existen herramientas de seguridad impulsadas por IA que pueden ayudar a detectar, erradicar y mitigar el riesgo de los ataques de phishing creados por GenAI. Esto incluye tecnología que puede escanear millones de correos electrónicos entrantes para predecir fraudes de identidad y falsificaciones profundas. Otras herramientas pueden buscar metadatos de imágenes y videos para detectar el origen del archivo y si ha sido modificado. Estas herramientas de seguridad impulsadas por IA pueden calificar el riesgo y alertar a los analistas sobre cualquier señal de alerta que deba investigarse más a fondo.

Los ataques de phishing creados por Deepfakes e Inteligencia Artificial Generativa (GenAI) están cambiando el concepto de realidad para muchas personas en todo el mundo. La confianza excesiva en las propias capacidades para combatir estas amenazas y la preocupación por los usuarios comerciales que ponen en riesgo a la organización no son útiles. Los equipos de seguridad deben proponer soluciones reales centradas en una estrategia de personas, procesos y tecnología para detectar estos ataques y mitigar su impacto en su organización.


Le recomendamos leer…

Ciberseguridad: ¿Qué es el stalkerware y cuáles son sus riesgos?

}https://eyng.pe/web/2024/04/24/ciberseguridad-todo-sobre-el-esim-swapping-y-como-prevenirlo/

Mostrar más

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba
Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para mostrarte publicidad relacionada con sus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Contiene enlaces a sitios web de terceros con políticas de privacidad ajenas que podrás aceptar o no cuando accedas a ellos. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos.
Privacidad