Del fraude por correo a las falsas voces y rostros
El avance de la Inteligencia Artificial (IA) ha transformado para siempre nuestra vida digital. Aunque los chatbots y algoritmos hacen más fácil y eficiente nuestra experiencia en línea, también han creado nuevas amenazas de ingeniería social, que al igual que las estafas tradicionales, buscan robar datos personales, información bancaria y detalles sensibles, tanto de personas como de empresas.
Con la IA, los ciberdelincuentes han perfeccionado tácticas como las estafas de phishing, cuyos ataques en América Latina aumentaron 140% en 2024, en comparación con el año anterior, según el Panorama de Amenazas de Kaspersky. En Centroamérica y El Caribe las cifras son significativas, Guatemala reporta un aumento del 280%; Panamá un 224%; Costa Rica 190%; mientras que República Dominicana registra un 67%.
Es común que estos mensajes de estafa estén mal redactados y tengan errores ortográficos, no obstante, los modelos de aprendizaje automático (LLMs) han mejorado la capacidad de los criminales para que los mensajes tengan una gramática impecable y sean mucho más convincentes; incluso logrando imitar páginas auténticas de diferentes compañías aumentando así el éxito de sus ataques.
Otro ejemplo son las ultrafalsificaciones, también conocidas como deepfakes: contenidos multimedia manipulados con Inteligencia Artificial. Con apenas unos segundos de una grabación de voz, la IA puede generar clips de audio; además, también facilita la alteración de imágenes y videos modificando rostros y sus expresiones. Se estima que, en promedio, ocurre un intento de deepfake cada cinco minutos y que, para 2026, hasta el 90% del contenido en línea podría generarse de esta forma.
En resumen, con la Inteligencia Artificial los criminales pueden automatizar la producción masiva de contenido fraudulento, haciendo sus ataques más sofisticados y difíciles de detectar. Por eso, a medida que esta tecnología avanza, nuestra defensa debe enfocarse en dos frentes: técnico y educativo.
A nivel técnico, existen soluciones prometedoras que se pueden adoptar, como las marcas de agua, para etiquetar contenido generado por IA; detectores de deepfakes, para identificar características específicas de contenido manipulado y firmas digitales.
A nivel educativo, hay una brecha crítica: un desconocimiento de lo fácil que es explotar la IA. La ciberdelincuencia aprovecha esto, lo que resalta la necesidad de un diálogo abierto y de campañas educativas sobre los riesgos.