Innovación

La inteligencia artificial generativa (GenAI) también puede ser una amenaza

Estamos ya acostumbrados a preguntarle a ChatGPT como quien busca en Google. A pedirle que arregle fotos o cree vídeos. E incluso a hablar con una IA sumamente avanzada como si fuera una Siri a la que pedimos direcciones en el navegador del coche. La inteligencia artificial ha revolucionado sin duda la forma en que interactuamos con la tecnología, pero también ha dejado ver que existen nuevas amenazas.

Mucha gente, por ejemplo, desconfía de las inteligencias artificiales generativas (GenAI) como ChatGPT, Gemini o CoPilot por su capacidad para crear contenido manipulado. Esto puede suceder en forma de textos, imágenes, videos hiperrealistas o conversaciones de voz. Y es un problema que plantea riesgos importantes tanto a nivel personal como –cuando el ordenador o el móvil son herramientas del trabajo cotidiano– también a nivel empresarial.

Contenido manipulado: el arma de los ciberdelincuentes

Como todo en la vida, las GenAI pueden usarse para el bien o para el mal. Cuando los crackers del «lado oscuro» las utilizan, uno de los los mayores peligros que suponen son los ataques de impersonación, esto es, hacerse pasar por otra persona. No estamos hablando solo de voces robóticas al otro lado de la línea o de mensajes de correo firmados por el supuesto jefe: son conversaciones sumamente creíbles, a veces como texto, pero también como voz o videollamada, donde los delincuentes pueden suplantar identidades. Es el terreno de los deep fakes o montajes falsos.

Estas técnicas que utilizan la GenAI alimentan tácticas de phishing cada vez más sofisticadas. En el phishing se busca robar contraseñas o información confidencial para acceder a todos los datos posibles con los que cometer un robo de datos, solicitar un «rescate» o causar otro tipo de daños. Los usuarios objetivo de estos ataques reciben correos o mensajes aparentemente legítimos, pero sin serlo. A veces son las propias entidades que guardan nuestros datos (bancos, empresas de servicios, tiendas…) las que son atacadas con impersonaciones de nuestra voz usando datos públicos.

Conocer las historias típicas que sirven de argumento para estos ataques ayuda mucho a combatirlos. Entre las más tradicionales están:

  • La petición de un jefe para realizar una transferencia de fondos urgente para cerrar un negocio («la estafa del CEO»).
  • El mensaje o la llamada de una hija desde un móvil desconocido porque supuestamente se le ha estropeado el suyo y necesita comprar otro («la estafa del familiar en apuros»).
  • La petición de fondos con todo tipo de excusas para realizar algún negocio que promete devolver pingües beneficios (el «timo de la inversión» de toda la vida).
  • Los «estafadores del amor» que engañan en las redes sociales
  • Los ocasionales «Príncipes nigerianos» que prometen dinero a cambio de favores.
  • «Ganadores de premios de lotería extranjeros» que regalan dinero.
  • … y una amplia y enciclopédica variedad de timos y estafas.

La mejor defensa contra estos contenidos manipulados es usar el sentido común y sobre todo la formación de los empleados para reconocer ese tipo de fraudes. También hay sistemas que filtran los mensajes con ciertas características típicas, al igual que se hace con correos y mensajes de redes sociales, pero la primera barrera de defensa son las personas y su sentido común.

Virus metamórficos y GenAI: la nueva era del malware

GenIA - Seguridad / Imagen: IntelLas empresas están ya habitualmente protegidas contra los virus informáticos que llegan por correo, mensajería y a través de los enlaces de los navegadores. Pero además de estas amenazas tradicionales y los nuevos ataques mediante contenidos manipulados, los virus metamórficos representan otro riesgo peligroso. Se trata de virus informáticos, programas maliciosos, con la capacidad de cambiar su código para evitar ser detectados. De este modo, burlan a los antivirus tradicionales. Afortunadamente la GenAI sirve también para analizar y contrarrestar estos problemas de seguridad en tiempo real.

Un ejemplo de sistema capaz de combatirlos es la plataforma Intel vPro, que suelen usar empleados y técnicos de soporte en remoto. Combina la seguridad tradicional con hardware específico (unidades de procesamiento neuronal, NPU) capaces de detectar las amenazas. Su potencia se basa en que es el propio PC el que analiza los peligros, por ejemplo, el uso de la memoria, el sistema operativo o las imágenes de una videoconferencia, haciendo saltar la alarma si observa señales de manipulación. Esto libera a la nube y a la red de ese trabajo, que se realiza localmente de forma más rápida y eficiente.

Más vale prevenir que perder los datos

A pesar de que existen herramientas técnicas que son de gran ayuda, el hecho de que sean los propios técnicos y usuarios quienes puedan reconocer y detener las amenazas a tiempo es algo esencial. La preparación humana sigue siendo un componente crítico, y es por ello que formar a los empleados para identificar los intentos de phishing y otras de las trampas modernas que están empezando a usar la GenAI puede ser crítico.

En cualquier caso, mantener una buena política de copias de seguridad y recuperación de datos garantizan que, en caso de robo, borrado o secuestro de información, las empresas serán capaces de minimizar el impacto de los ataques.

Del mismo modo que la GenAI nos ha sorprendido gratamente por sus habilidades para ayudarnos respondiendo a preguntas, generando imágenes impensables o añadiendo efectos visuales a los vídeos, no debemos que olvidar que también tiene un lado oscuro. Y por más que las empresas de IA intenten que con sus «filtros» las GenAI no se usen para el mal, hay demasiadas IAs que escapan a esos controles. Ignorar que esas amenazas existen no es una opción. Es mucho mejor saber hasta dónde pueden llegar y estar preparados.

Foto | (CC) Christopher Gower @ Unsplash; Intel

Últimas entradas de Microsiervos

Volvo EX30 eléctrico

Nuestro SUV eléctrico puro. Un gran rendimiento eléctrico en un paquete compacto.

Configura tu EX30
 

Deja un comentario sobre "La inteligencia artificial generativa (GenAI) también puede ser una amenaza"

Nos encantará conocer vuestra opinión, pero indicaros que los comentarios están moderados, y no aparecerán inmediatamente en la página al ser enviados. Evitemos las descalificaciones personales, los comentarios maleducados, los ataques directos o ridiculizaciones personales, o los calificativos insultantes de cualquier tipo, y procuremos que las opiniones estén relacionadas con lo que se comenta en esta entrada.

Volvo Car España, S.L.U. almacenaremos y procesaremos tus datos personales de acuerdo a nuestro aviso legal y política de privacidad. En Volvo Car España, S.L.U. también compartiremos tus datos personales con nuestra Red de Concesionarios y Talleres Oficiales, quien los procesará y hará seguimiento de tu solicitud. Enviando esta solicitud, aceptas este proceso.

Nuestros clientes y amigos reciben la mejor información, campañas y promociones de Volvo Cars, a través de medios electrónicos. Al seleccionar una o varias de las casillas de abajo, consiento recibir futuras comunicaciones de Volvo Car España y/o nuestra Red de Concesionarios por el canal seleccionado.

Email

Enviado esta solicitud, consientes el procesamiento de tus datos.