La inteligencia artificial generativa (GenAI) también puede ser una amenaza
Estamos ya acostumbrados a preguntarle a ChatGPT como quien busca en Google. A pedirle que arregle fotos o cree vídeos. E incluso a hablar con una IA sumamente avanzada como si fuera una Siri a la que pedimos direcciones en el navegador del coche. La inteligencia artificial ha revolucionado sin duda la forma en que interactuamos con la tecnología, pero también ha dejado ver que existen nuevas amenazas.
Mucha gente, por ejemplo, desconfía de las inteligencias artificiales generativas (GenAI) como ChatGPT, Gemini o CoPilot por su capacidad para crear contenido manipulado. Esto puede suceder en forma de textos, imágenes, videos hiperrealistas o conversaciones de voz. Y es un problema que plantea riesgos importantes tanto a nivel personal como –cuando el ordenador o el móvil son herramientas del trabajo cotidiano– también a nivel empresarial.
Contenido manipulado: el arma de los ciberdelincuentes
Estas técnicas que utilizan la GenAI alimentan tácticas de phishing cada vez más sofisticadas. En el phishing se busca robar contraseñas o información confidencial para acceder a todos los datos posibles con los que cometer un robo de datos, solicitar un «rescate» o causar otro tipo de daños. Los usuarios objetivo de estos ataques reciben correos o mensajes aparentemente legítimos, pero sin serlo. A veces son las propias entidades que guardan nuestros datos (bancos, empresas de servicios, tiendas…) las que son atacadas con impersonaciones de nuestra voz usando datos públicos.
Conocer las historias típicas que sirven de argumento para estos ataques ayuda mucho a combatirlos. Entre las más tradicionales están:
- La petición de un jefe para realizar una transferencia de fondos urgente para cerrar un negocio («la estafa del CEO»).
- El mensaje o la llamada de una hija desde un móvil desconocido porque supuestamente se le ha estropeado el suyo y necesita comprar otro («la estafa del familiar en apuros»).
- La petición de fondos con todo tipo de excusas para realizar algún negocio que promete devolver pingües beneficios (el «timo de la inversión» de toda la vida).
- Los «estafadores del amor» que engañan en las redes sociales
- Los ocasionales «Príncipes nigerianos» que prometen dinero a cambio de favores.
- «Ganadores de premios de lotería extranjeros» que regalan dinero.
- … y una amplia y enciclopédica variedad de timos y estafas.
La mejor defensa contra estos contenidos manipulados es usar el sentido común y sobre todo la formación de los empleados para reconocer ese tipo de fraudes. También hay sistemas que filtran los mensajes con ciertas características típicas, al igual que se hace con correos y mensajes de redes sociales, pero la primera barrera de defensa son las personas y su sentido común.
Virus metamórficos y GenAI: la nueva era del malware
Un ejemplo de sistema capaz de combatirlos es la plataforma Intel vPro, que suelen usar empleados y técnicos de soporte en remoto. Combina la seguridad tradicional con hardware específico (unidades de procesamiento neuronal, NPU) capaces de detectar las amenazas. Su potencia se basa en que es el propio PC el que analiza los peligros, por ejemplo, el uso de la memoria, el sistema operativo o las imágenes de una videoconferencia, haciendo saltar la alarma si observa señales de manipulación. Esto libera a la nube y a la red de ese trabajo, que se realiza localmente de forma más rápida y eficiente.
Más vale prevenir que perder los datos
A pesar de que existen herramientas técnicas que son de gran ayuda, el hecho de que sean los propios técnicos y usuarios quienes puedan reconocer y detener las amenazas a tiempo es algo esencial. La preparación humana sigue siendo un componente crítico, y es por ello que formar a los empleados para identificar los intentos de phishing y otras de las trampas modernas que están empezando a usar la GenAI puede ser crítico.
En cualquier caso, mantener una buena política de copias de seguridad y recuperación de datos garantizan que, en caso de robo, borrado o secuestro de información, las empresas serán capaces de minimizar el impacto de los ataques.
Del mismo modo que la GenAI nos ha sorprendido gratamente por sus habilidades para ayudarnos respondiendo a preguntas, generando imágenes impensables o añadiendo efectos visuales a los vídeos, no debemos que olvidar que también tiene un lado oscuro. Y por más que las empresas de IA intenten que con sus «filtros» las GenAI no se usen para el mal, hay demasiadas IAs que escapan a esos controles. Ignorar que esas amenazas existen no es una opción. Es mucho mejor saber hasta dónde pueden llegar y estar preparados.
Foto | (CC) Christopher Gower @ Unsplash; Intel