Otras noticias
Tendencia

Estafas con Inteligencia Artificial: Conoce las amenazas y precauciones

Bitdefender describe cuáles son las estafas a través de IA más frecuentes y recomienda las acciones a seguir para no caer en estas.

EYNG, 28/05/2024. Los estafadores se han interesado mucho en las herramientas de inteligencia artificial que pueden mejorar estafas antiguas o crear otras nuevas sorprendentemente creíbles y exitosas. La tecnología impulsada por la IA se ha vuelto muy versátil, lo que permite a los ciberdelincuentes y otros malhechores digitales manipular la realidad tal como la conocemos.

Por ello, los especialistas de Bitdefender sugieren que cuanto más consciente sea de las estafas relacionadas con la IA que circulan por Internet, mejor podrá protegerse a sí mismo y a sus seres queridos contra riesgos y pérdidas de dinero. Estas son algunas de las estafas de IA más frecuentes:

1. Estafas de clonación de voz o deepfakes de audio

Los actores de amenazas crean grabaciones de voz convincentes de personas reales para manipular a otros para que entreguen información confidencial o dinero. Los estafadores pueden recopilar muestras de voz de videos de redes sociales, discursos públicos o llamadas telefónicas para hacerse pasar por usted, sus familiares o figuras públicas como políticos, profesionales de la salud y celebridades. Utilizan la voz clonada para manipular que transfiera dinero, compra de bienes, pague un rescate o proporcione información confidencial como contraseñas, PIN y números de seguro social.

2. Estafas de vídeos deepfake

Utilizan la inteligencia artificial para crear vídeos falsos que muestren a celebridades y otras figuras conocidas para defraudar a los usuarios en las plataformas de redes sociales. Por ejemplo, los estafadores han llevado a cabo extensas estafas de duplicación de criptomonedas en YouTube mediante la creación de videos que se hacen pasar por Michael Saylor y Elon Musk.

3. Estafas de videollamadas deepfake

Los estafadores utilizan tecnología de intercambio de rostros para cambiar su apariencia en tiempo real y crear nuevas identidades para atraer a las personas a una relación romántica en línea. Y eso no es todo. Los ciberdelincuentes lograron llevar a cabo un atraco sorprendente después de convencer a un empleado de Hong Kong de transferir 25 millones de dólares a cinco cuentas bancarias separadas pertenecientes a los ciberdelincuentes. ¿Cómo? Modificaron videos e imágenes disponibles públicamente de sus colegas y del director financiero de la compañía y realizaron videollamadas falsas con el empleado.

4. Estafas de phishing basadas en inteligencia artificial

Utilizando IA generativa, los ciberdelincuentes ahora pueden llevar a cabo campañas de phishing extensas y altamente eficientes que carecen de los signos reveladores comunes de hace un par de años: errores tipográficos, mala gramática u otras idiosincrasias para parecer hablantes nativos. Además, la IA puede enviar un mensaje más personalizado o de apariencia legítima a la víctima al crear una copia que suene más profesional. Estos cambios permiten a los estafadores automatizar campañas masivas de spam, responder en tiempo real y potencialmente obtener acceso a datos más confidenciales que nunca.

5. Otras estafas de IA en las redes sociales

La IA también se puede utilizar para crear perfiles de redes sociales falsos que parecen y se comportan como personas reales. Estos perfiles pueden luego usarse para generar confianza con las víctimas y engañarlas para que compartan información de identificación personal y dinero. Los estafadores también usan imágenes generadas por IA para hacer que sus perfiles parezcan reales o usan sitios web generados por IA para crear tiendas en línea falsas para robar la información de su tarjeta de crédito.

Consejos para protegerse de las estafas con Inteligencia Artificial

Para protegerse contra las estafas de IA, los especialistas en ciberseguridad aconsejan que el usuario tome conciencia, precaución y use las herramientas adecuadas.

  • Sea escéptico ante las comunicaciones inesperadas: los estafadores a menudo se hacen pasar por empresas o individuos de buena reputación. Verifique siempre la fuente de la comunicación antes de compartir información personal o realizar cualquier transacción.
  • Tenga cuidado si un familiar, amigo o colega se comunica con usted mediante un correo electrónico, un número de teléfono o un perfil de red social desconocido. En su lugar, puede enviar un mensaje de texto o llamar a la persona utilizando los métodos de contacto habituales. Recuerde, los estafadores siempre intentarán jugar con sus emociones y presionarlo para que tome una decisión en el acto.
  • Utilice un software de seguridad integral y confiable para ayudar a detectar y bloquear intentos de phishing y otras estafas. Funciones prácticas que incluyen alerta de estafa y protección de correo electrónico disponibles para Gmail y Outlook están disponibles en planes todo en uno. A su vez mantenga actualizado el software.
  • No comparta demasiado en las redes sociales. Haga que su perfil sea privado y evite revelar al público sus planes de viaje. Esto podría permitir a los estafadores hacerse pasar por usted mientras está en el extranjero o de vacaciones y atacar a sus familiares y amigos. 5. Infórmese: Manténgase informado sobre las últimas técnicas de estafa para que pueda reconocerlas.
  • Informe cualquier video sospechoso o fraudulento a las plataformas de redes sociales e informe a todos sus seres queridos para ayudarlos a mantenerse seguros también.
  • Comuníquese con las autoridades policiales y otras agencias relevantes si ha sido víctima de una estafa.
  • Utilice Bitdefender Scamio, herramienta impulsada por IA dedicada a ayudarle a identificar y evitar posibles estafas. Cuando no esté seguro acerca de una propuesta, un mensaje de texto o una solicitud en línea por correo electrónico, puede consultarlo con Scamio en WhatsApp, Facebook Messenger o un navegador web de forma gratuita.
Mostrar más

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada.

Botón volver arriba