¡La amenaza es real! Los investigadores han creado el primer virus capaz de infectar la IA.

Vota este post

Sí, ya hemos visto la IA ser pirateada por un virus informático en las películas, pero en la vida real esto aún no ha existido. Sin embargo, hoy asistimos a una gran novedad en la ciberamenaza contra la inteligencia artificial. Luego, los investigadores desarrollaron malware capaz de piratear la IA y propagarse por todo el sistema.

” Nosotros tenemos desarrolló este gusano informático capaz de infectar la inteligencia artificial con el objetivo de recordar a los usuarios los riesgos que son inseparables de todas las tecnologías conectadas”, declara este equipo de investigadores. Según estos investigadores, la aparición de este nuevo virus debería alertar a los usuarios, así como a los desarrolladores de sistemas basados ​​en IA, sobre la aparición de futuras generaciones de ciberataques.

Morris II, el primer virus que infecta la IA

En 1998 vimos la aparición de un gusano informático que causó estragos en Internet. Y este nuevo virus hace referencia precisamente a este viejo malware. Es por eso que lo llamamos Morris II. Lo peor de este nuevo gusano es que se propaga de un sistema de IA a otro. Y dado que todo el ecosistema está conectado, la amenaza es significativa.

Para ilustrar el potencial de Morris II, investigadores de la Universidad de Cornell llevaron a cabo una prueba sobre las capacidades de este gusano para infectar inteligencia artificial. Según los resultados, Morris II pudo fácilmente atacar a agentes de IA y defraudar datos importantes.

Durante las pruebas, Morris II infectó fácilmente a un asistente de correo electrónico independiente. Y luego, el virus robó todos los datos guardados en los correos electrónicos. Esta primera experiencia pone de relieve la vulnerabilidad de los LLM ante los ciberataques, aunque son versátiles y eficientes.

Por tanto, los riesgos son reales, aunque este virus capaz de infectar a la IA aún no ha sido probado en condiciones reales. Los desarrolladores, las nuevas empresas, las empresas, todos deben tener cuidado con los posibles ataques y pensar ahora en cómo proteger su IA.

Experiencia exitosa para investigadores, amenaza para la IA

Según los equipos responsables del desarrollo de Morris II, tuvieron que crear un nuevo tipo de mensaje, el mensaje autorreplicante. En otras palabras, estas son instrucciones que llevarán a los sistemas de inteligencia artificial a producir automáticamente nuevas instrucciones en las respuestas que dan.

Esta técnica se utiliza hoy en día en ataques tradicionales como el desbordamiento de búfer o incluso Trucos de inyección SQL. Pero aquí, los investigadores de la Universidad de Cornell también han creado un protocolo de correo cuyo objetivo es poder enviar y recibir correos electrónicos desde y a través de agentes de IA como Google Gemini, LLaVA y ChatGPT de OpenAI.

Luego, los investigadores centraron su experimento en dos enfoques de autorreplicación. El primer método consiste en utilizar indicaciones de texto como de costumbre. Y el segundo mediante la inserción de enlaces en una imagen.

El primer método permitió infectar la base de datos de los asistentes de mensajería. Resultado: el RAG o generación de recuperación aumentada ha activado. Lo que resultó en que se generaran respuestas más nuevas sin tener que recurrir a cambiar el modelo de lenguaje.

Por lo tanto, los correos electrónicos son recopilados por el RAG y serán enviado a Gemini o GPT-4. Así es como el usuario puede robar datos de los mensajeros y eludir fácilmente el protocolo de seguridad de los sistemas de inteligencia artificial.

Durmiendo Aún no es demasiado tarde para implementar medidas preventivas contra los virus de IA.. Los investigadores de Cornell también han compartido su trabajo con gigantes de la IA, incluidos OpenAI y Google precisamente con el objetivo de reforzar la seguridad de sus agentes de IA.

    Comparte el artículo: