Virus y IA: Nace Morris II

Tiempo de lectura: 5 minutos

Virus con IA

Compartir en redes

Un equipo de investigadores ha desarrollado un virus para la IA generativa con el objetivo de alertar sobre existentes agujeros de seguridad. El mensaje ha sido claro, es necesario por lo tanto re-evaluar la tecnología existente en la actualidad para tratar de aplicar soluciones antes de que lleguen los verdaderos problemas que podrían comprometer millones de ordenadores. Parece que no siempre es oro lo que reluce en la IA generativa. ¡Vamos a verlo!

El primer virus para la IA generativa

Ben Nassi, Stav Cohen y Ron Bitton, un grupo de investigadores, han desarrollado un virus de tipo gusano llamado Morris II destinado especificamente para la IA generativa. El nombre es en homenaje al primer gusano de la historia del hacking y este virus se centra específicamente en atacar asistentes de correo electrónico impulsados por IA. Su fin es el de capturar datos desde el correo electrónico y distribuir span, algo poco peligroso por el momento, ya que el objetivo de la creación de este virus es alertar de agujeros de seguridad respecto a la IA generativa.

La problemática de los agujeros de seguridad es que si no actuamos rápido, la propia IA puede elaborar métodos de aprendizaje que, por decirlo de alguna manera, nos pueden acabar dando más un serio quebradero de cabeza. Los investigadores han documentado todo en un paper para poder advertir a Google y a OpenAI del peligro.

¿Cómo funciona el virus?

Este gusano funciona a partir de un prompt que se replica a si mismo. Un prompt es literalmente nuestro mecanismo de interacción o comunicación con la IA, es decir, aquella órden que le introducimos para que ejecute una serie de tareas. El funcionamiento del gusano hace que, al responder a un prompt, la IA genere automáticamente otro prompt, lo cual resulta en que la IA produzca instrucciones adicionales dentro de sus propias respuestas.

Posteriormente, los investigadores crearon un sistema de correo electrónico conectado a ChatGPT y Gemini y enviaron un email usando un prompt que comprometía la base de datos del sistema de correo electrónico. Una vez que el mensaje se enviaba a GPT-4 o a Gemini Pro, este robaba los datos de los correos electrónicos. Una amenaza que de estar fuera de control supondía un auténtico peligro para los usuarios. Además, los creadores consiguieron que el virus se autoreplicara, por tanto el potencial de infección y su daño serían imparables.

Pero como decimos, no debemos temer, ya que el objetivo es alertar de la existencia de agujeros de seguridad.

¿Cómo podríamos defendernos de un hipotético futuro virus para la IA?

Realmente, la vulnerabilidad radica en la aplicación que utiliza el modelo de IA generativa, no en el modelo en sí. Por ende, sería importante que todos las organizaciones y sus equipos de seguridad sigan las mejores prácticas con respecto a la seguridad de las aplicaciones. Entre otras hay ciertas recomendaciones básicas:

1 – Revisión de código y análisis estático:

  • Revisar y analizar periódicamente el código en busca de vulnerabilidades.
  • Utilizar herramientas de análisis estático para identificar posibles problemas de seguridad durante la fase de desarrollo.
  • Implementar estándares de codificación y mejores prácticas para reducir los riesgos de seguridad comunes.

2 – Autenticación y Autorización:

  • Aplicar mecanismos de autenticación sólidos para verificar la identidad de los usuarios.
  • Implementar controles de autorización adecuados para garantizar que los solo los usuarios tengan acceso a los recursos que necesitan.
  • Utilizar una autenticación en 2 pasos (2FA) cuando corresponda para agregar una capa adicional de seguridad.

3 – Cifrado de datos:

  • Cifrar datos confidenciales tanto en tránsito como en reposo para protegerlos del acceso no autorizado.
  • Utilizar algoritmos de cifrado sólidos y prácticas de gestión de claves.
  • Implementar protocolos seguros como HTTPS para salvaguardar los datos durante la transmisión.

4 – Parches de seguridad periódicos:

  • Mantener todo el software, las bibliotecas y los frameworks actualizados con los últimos parches de seguridad.
  • Buscar y aplicar periódicamente actualizaciones de software para abordar vulnerabilidades conocidas.
  • Supervisar los avisos de seguridad de los proveedores y aplicar parches con prontitud.

5 – Pruebas de seguridad:

  • Realizar pruebas de seguridad periódicas, incluidas pruebas de penetración y evaluaciones de vulnerabilidad.
  • Realizar pruebas automatizadas y manuales para identificar y abordar posibles fallos de seguridad.
  • Integrar las pruebas de seguridad en el ciclo de vida del desarrollo, incluso durante los procesos de construcción e implementación.

¿Qué significan estos agujeros de seguridad para la IA generativa?

Como sabemos, el tema de la IA generativa es especialmente candente y está más que de actualidad, por tanto, ya estaban tardando en aparecer problemáticas potenciales más peligrosas. Y es que parece ser que no teníamos suficiente con el tema ético y moral de la generación de todo tipo de contenido con la IA (imágenes, vídeos, etc) y ahora hemos empezado a ver la boca del lobo.

Pero como recordamos, estos agujeros de seguridad no son del modelo de IA generativa en sí, sino la aplicación que esté usando el modelo. Dicho de otra forma, no es que la IA sea como el lobo que cuida de los corderos, más bien se trata de que el pastor no puso una cerca de seguridad para estos.

Visto de forma positiva, estos agujeros de seguridad van a suponer un avance de obligatoriedad para las capas de seguridad de las aplicaciones que usen IA generativa. Por tanto, no debemos temer, de momento.

Compartir en redes

Scroll al inicio