Inteligencia artificial en ciberseguridad: ¿riesgo o alivio?

Vota este post

La inteligencia artificial se encuentra entre uno de los campos tecnológicos que avanzan más rápidamente debido a su potencial para mejorar el mundo.

Sin embargo, por mucho que su avance sea bien recibido, todavía son pocos los que se muestran escépticos sobre el uso de la IA, precisamente lo que ocurre con la IA en la ciberseguridad.

Con el reciente y alarmante aumento de las ciberamenazas y los exploits, las personas de todo el mundo se esfuerzan desesperadamente por ponerse a cubierto. En medio de esto, la IA dentro de la ciberseguridad parece ofrecer una gran iniciativa. Sin embargo, dado que su verdadero potencial aún no se ha descubierto por completo, la ansiedad sobre el uso de la IA en la ciberseguridad incluso es alta.

Para tener una idea completa de si la IA dentro de la ciberseguridad es un riesgo o un alivio, es mejor tener una perspectiva de ambos aspectos y seleccionar el lado con hierba más verde.

Lados positivos de la IA

La IA ahora es bastante omnipresente en nuestras vidas principalmente porque viene con muchas ventajas vitales, lo que ha llevado a varias industrias como Apple y Gmail a confiar en ella.

En términos de ciberseguridad, su perspectiva parece lo suficientemente buena como para reflexionar. Estas son algunas de las formas clave a través de las cuales la IA puede ser una parte valiosa de la ciberseguridad:

Protéjase contra nuevas amenazas

La IA está maravillada por su capacidad de pensar y adaptarse a una escala mayor que la de la mente humana. Ahora que los ataques cibernéticos se vuelven más sofisticados cada día que pasa, la capacidad de la IA para aprender y adaptarse puede resultar útil.

Principalmente, ya que puede programarse para mantenerse actualizado sobre cualquier nuevo ataque cibernético automáticamente, lo que de hecho se puede lograr al observar de cerca los ataques intentados, bloqueados o fallidos. A través de esta IA, esta puede aprender más profundamente sobre un ataque y encontrar varias formas fructíferas de defenderse de él en un futuro próximo.

Además, la IA se puede utilizar para comprender mejor los ataques cibernéticos y otras vulnerabilidades que están presentes en línea. Por lo tanto, este método de aprendizaje se puede utilizar para crear herramientas de seguridad cibernética que se caractericen mejor por proteger contra los riesgos cibernéticos en línea.

Además, la IA está diseñada para tener una mejor comprensión de un sistema. Un programa dedicado a mejorar la seguridad le permitirá comprender los errores o cualquier anomalía nueva presente en un sistema. Con eso, AI también puede proporcionar un método de respuesta eficiente.

Análisis eficiente de amenazas dentro de las redes

Con la tecnología en su apogeo, las empresas y organizaciones ahora están conectadas a través de una intrincada red de redes. Se realizan una gran cantidad de inversiones para llevar a cabo formas de trabajo en red tan complicadas.

Esta red perpleja requiere amplias medidas de seguridad para administrar todas las comunicaciones, junto con políticas de transacción de manera eficiente. Por lo tanto, incluso una falla o error menor en el sistema podría representar una pérdida de esas importantes inversiones, sin mencionar una posible mancha en la reputación.

El uso de IA dentro del sistema ayuda a erradicar estos problemas, ya que se puede entrenar para monitorear todas las transacciones entrantes y salientes. Con un monitoreo cercano, la identificación de amenazas o actividades sospechosas, incluso en un vasto plano de redes, puede ser eficiente. Y con eso, en caso de situaciones alarmantes, la acción inmediata puede evitar problemas.

Mejor detección de malware

El malware es fácilmente uno de los tipos más comunes de amenazas cibernéticas. Dado que es un término general para todo lo que está diseñado específicamente para dañar un sistema, existe una amplia categoría de malware presente en línea.

Aunque la detección de malware ha sido durante mucho tiempo un proceso continuo a través de lo que ahora puede parecer un método tradicional de hacer coincidir un código sospechoso con el sistema basado en firmas.

Sin embargo, la IA ahora ha evolucionado para presentar un método de interferencia aún más eficiente para la detección de malware. Como los sistemas de IA son capaces de realizar análisis de datos a gran escala, los hace adecuados para detectar archivos de malware incluso antes de que comiencen a infectar el sistema.

Junto con eso, AI también puede identificar el tipo de malware presente, lo que hace que el método de respuesta sea aún más eficiente. Además, el malware continúa evolucionando a un ritmo acelerado creando ramas, a saber, publicidad maliciosa, ransomware, etc. La IA puede crecer y desarrollarse con bastante capacidad al mismo ritmo, lo que garantiza la seguridad en línea.

El lado oscuro de la IA

Aunque la IA parece ser lo mejor que nos ha pasado, las voces que apuntan a sus aspectos más oscuros no son algo que deba pasarse por alto. Si bien aprovechamos las capacidades de la IA para crear un frente fuerte, puede derribarnos y causar daños en lugar de ciberseguridad. Dado que el trabajo principal de la IA se basa en una capacidad eficiente para aprender y adaptarse, es bastante natural que los piratas informáticos y otros ciberdelincuentes trabajen en el ciclo de esa capacidad en las brechas de seguridad.

De modo que, dado que la IA puede aprender y adaptarse mejor para crear defensas contra las infracciones de la red y los ataques de hackers, también puede determinar el funcionamiento de una herramienta y acabar con ella. Además, con los sistemas de defensa basados ​​en IA en uso, explotar un sistema puede ser más fácil para los piratas informáticos. El trabajo máximo por el que tendrían que pasar es configurar un sistema para trabajar en el descifrado de códigos.

Además, como los sistemas de seguridad de malware ahora se crean a través de AI, aquellos que se lo proponen también pueden generar malware y virus más fuertes usando AI. Además, sin mencionar las herramientas de piratería y malware disponibles en la web oscura. ¿Cuánto tiempo hasta que no se basen en IA y comiencen a causar estragos?

Ahora, consideremos este escenario: la IA y ciertos algoritmos de aprendizaje automático funcionan entrenando grandes conjuntos de datos para aprender cómo responder a diferentes circunstancias en tiempo real. Aprenden haciendo e incorporando datos adicionales, refinando iterativamente sus enfoques. Sin embargo, desde el punto de vista de la seguridad, esto presenta dos desafíos importantes.

En primer lugar, la mayoría de los sistemas de IA están diseñados para realizar deducciones y decisiones de forma autónoma sin la participación humana frecuente. Estos sistemas no guiados pueden verse comprometidos y sus flujos pueden pasar desapercibidos durante mucho tiempo, solo para causar graves consecuencias en el resultado de formas inesperadas. En segundo lugar, las razones por las que la IA y los programas de aprendizaje automático toman deducciones y decisiones pueden no ser obvias para los ingenieros a partir de los modelos o datos subyacentes de toma de decisiones. Es posible que no sean necesariamente transparentes o fácilmente interpretables. Incluso si se detecta una violación en un sistema de IA, su propósito podría permanecer oscuro.

Aunque la ciberseguridad es una preocupación para los pioneros en IA, la ciberseguridad es una preocupación menor para las empresas que se están quedando atrás. Cuando estas empresas conectan cada vez más sistemas de IA para controlar los sistemas físicos, aumenta el riesgo de consecuencias graves, lo que presenta una serie de vulnerabilidades potenciales de sus iniciativas de IA. En este punto, ninguna industria es inmune, y esto presenta mayores riesgos tales como:

  • sesgo de IA
  • Fraude financiero
  • Discriminaciones por marcas y gobiernos
  • Riesgos de seguridad por dispositivos ciberfísicos que controlan el flujo de tráfico, dispositivos médicos, sistemas de recomendación, enrutamiento de trenes o desbordamiento de presas, etc.
  • Desalineación entre nuestros objetivos y los de la máquina.
  • La invasión de la privacidad y la clasificación social
  • manipulación social
  • Amenazas nacionales por armas autónomas

Ultimas palabras

Donde la IA dentro de la ciberseguridad es un riesgo o no es un debate en curso que parece no tener un resultado fructífero. Específicamente, sus ventajas y desventajas son algo que depende únicamente de su uso. Como todo tiene sus pros y sus contras, a juzgar por meras suposiciones, es una tarea difícil de llevar a cabo. Pero teniendo en cuenta que las herramientas y los sistemas de defensa creados por humanos parecen estar fallando desesperadamente, ya es hora de equiparnos con iniciativas de defensa más inteligentes, como la IA.

Enfrentando los riesgos de la IA: recomendaciones

Según las perspectivas de la IA en la ciberseguridad, sus riesgos representan una amenaza sustancial, tener IA y luego fallar miserablemente en el control es una papa caliente que aún no estamos listos para manejar. Sin embargo, en respuesta a las amenazas cambiantes, nos gustaría algunas recomendaciones de alto nivel:

  1. Desarrollar políticas para asegurar que el desarrollo de la IA se dirija a mejorar a los humanos y al bien común. Los formuladores de políticas deben colaborar con los investigadores técnicos para investigar, prevenir y mitigar posibles usos maliciosos de la IA.
  2. Cambiar las prioridades de los sistemas económicos, políticos y educativos para empoderar a las personas para que se mantengan a la cabeza en la carrera con los robots.
  3. Aprenda de y con la comunidad de IA y ciberseguridad. Deberíamos explorar y potencialmente implementar la verificación formal y la divulgación responsable de las vulnerabilidades de la IA, las herramientas de seguridad y el hardware seguro. Deben identificarse las mejores prácticas para abordar las preocupaciones de doble uso, como la seguridad informática, e importarse cuando corresponda al caso de la IA.
  4. Mejore la colaboración humana a través de las fronteras y los grupos de partes interesadas. Los investigadores deben considerar seriamente la naturaleza de doble uso de su trabajo y comunicarse de manera proactiva con los actores relevantes cuando se prevean aplicaciones dañinas.
  5. Fomentar una cultura de responsabilidad. Las organizaciones que emplean aplicaciones de IA se encuentran en una posición única que da forma al panorama de seguridad del mundo habilitado para IA. Deben realizar su compromiso ético en el mejor uso de la tecnología y la responsabilidad de asegurar un mejor futuro para las próximas generaciones.

Sobre el Autor: Rebecca James es periodista de seguridad cibernética, líder de equipo creativo y editora en PrivacyCrypts.