El apocalipsis digital se acerca: ¡el malware de IA se multiplica sin control!

Vota este post

Recientemente, un investigador logró crear malware utilizando IA. Lo que significa que ahora cualquiera puede ejecutar un ciberataque con la capacidad de la inteligencia artificial. Pero sólo surge una pregunta: ¿sería este el comienzo de una nueva generación de malware o el fin del ecosistema de IA?

Pase lo que pase, Wired informó en su artículo que este malware, identificado como un gusano informático, puede infectar y propagarse de un sistema a otro. Así, él puede extorsionar datos sin que el usuario se dé cuenta. Ben Nassi, por su parte, investigador de Cornell Tech, añade que gracias a este malware podemos realizar fácilmente ataques que nada tienen que ver con infecciones previas.

Atención ! Las IA tienen acceso a sus datos personales

Los investigadores llevaron a cabo un experimento en un entorno controlado y asistentes de conversación específicos impulsados ​​por GPT-4 de OpenAIGemini Pro de Google, así como un importante modelo de lenguaje de código abierto llamado LLaVA.

Según ellos, optaron por un método que se basa en un “indicador contradictorio autorreplicante”. Esto luego obliga al modelo de IA a emitir un nuevo mensaje en su respuesta. Esto desencadena un efecto en cascada de resultados que pueden “infectar” a estos asistentes y extraerles información confidencial.

“Esto puede afectar a ciertos datos. Incluyendo nombres, números de teléfono, datos bancarios, números de seguridad social o cualquier otro elemento considerado confidencial”, añadió Nassi.

Al mismo tiempo, como estas IA tienen acceso a bases de datos personales, podemos fácilmente conseguir que divulguen los secretos de los usuarios a pesar de las barreras de seguridad instaladas.

Al explotar un nuevo sistema de mensajería bidireccional, los científicos pudieron infectar la base de datos de un correo electrónico enviado. Y esto permitió que este malware robara datos confidenciales contenidos en correos electrónicos utilizando IA.

Malware de IA capaz de transmitirse de una computadora a otra

Los mismos investigadores que desarrollaron este malware descubrieron una falla preocupante en sistemas de inteligencia artificial conversacional como ChatGPT. Cuando inyectaron los datos maliciosos en las consultas, lograron propagar estos datos de un sistema a otrosin el conocimiento de los usuarios.

El equipo incluso ocultó una instrucción maliciosa en una imagen. Lo que provocó que otros clientes se infectaran a través de sus buzones de correo. Es decir cuando el procesamiento de la imagen ha sido infectado por el malware. Nassi incluso añade que si codificamos el mensaje autorreplicante, podríamos transmitir contenido infectado a otros buzones de correo.

Según los investigadores, estos gusanos de IA propagandísticos o maliciosos podría comenzar a extenderse en los próximos años. Y las consecuencias serán importantes y predecibles según ellos.

Pese a todo, OpenAI y Google han sido advertidos de la eficacia de este malware para infectar a los asistentes de IA. A su lado, OpenAI ya está trabajando en el caso para fortalecer la resiliencia de sus sistemas. Pero ha comenzado una carrera contra el tiempo para cerrar estas brechas de seguridad antes de que sean explotadas a gran escala.

    Comparte el artículo: