
Muchos líderes empresariales y expertos han advertido sobre el uso de la IA en un entorno militar. Elon Musk fue uno de los 100 expertos en inteligencia artificial de Tesla y SpaceX que pidieron a la ONU que impida el desarrollo de armas letales autónomas. Musk advirtió a AI que se podría crear “un dictador inmortal del que no podríamos escapar” y que la tecnología podría conducir a una tercera guerra mundial.
Si bien una encuesta reciente de RAND de expertos en inteligencia artificial y seguridad nuclear afirma que la inteligencia artificial se usará ampliamente como ayuda para la toma de decisiones en plataformas de comando y control, examinaremos la posibilidad de que un algoritmo pueda proporcionar evidencia convincente de que una alarma nuclear entrante es una falsa alarma, que aboga por la moderación en lugar de la confrontación.
Los tomadores de decisiones en varios niveles de la cadena de mando nuclear enfrentan dos formas diferentes de estrés. La primera forma de presión en una crisis es la sobrecarga de información, la escasez de tiempo y el caos. El segundo es más general, derivado de diferencias morales y temores de causar enormes pérdidas de vidas. Se han utilizado técnicas de análisis de IA y Big Data para abordar el primer estrés. El actual Sistema de Alerta Temprana Nuclear de EE. UU. utiliza un mecanismo de «fenomenología dual» para acelerar la detección de amenazas y simplificar la información para la toma de decisiones. El Sistema de alerta temprana utiliza satélites y radares avanzados para confirmar un misil enemigo y rastrearlo casi inmediatamente después del lanzamiento. En un ataque nuclear, los distintos militares y personal administrativo de la cadena de mando serían informados gradualmente a medida que se analizaba la amenaza hasta que finalmente se notificaba al presidente. Esta estructura reduce significativamente la sobrecarga y el caos de los tomadores de decisiones en una crisis.
Sin embargo, el sistema también reduce el papel del tomador de decisiones para «simplemente respaldar los reclamos de los sensores y los sistemas de comunicación de que efectivamente se está produciendo un ataque masivo». Aunque las tecnologías avanzadas y las técnicas de procesamiento de datos en el sistema de alerta temprana reducen la ocurrencia de alertas falsas, no eliminan la posibilidad de que ocurran. Las futuras aplicaciones de IA para el comando y control nuclear deberían aspirar a crear un algoritmo que pueda argumentar que una guerra nuclear no está ocurriendo frente a un miedo abrumador de un ataque inminente. Además del análisis puramente tecnológico, dicho algoritmo podría verificar la autenticidad de una alerta desde otras perspectivas diversas. La incorporación de ese elemento en el proceso de alerta nuclear puede ayudar a abordar la segunda forma de estrés y tranquilizar a los tomadores de decisiones sobre la sanción de un curso de acción válido y justificado.
Sin embargo, estos avances en el control nuclear no abordan la segunda forma de estrés que surge del miedo a la guerra nuclear y las barreras morales que la acompañan. ¿Cómo puede la IA reducir esto? La historia nos recuerda que la sofisticación tecnológica no puede utilizarse para evitar enfrentamientos accidentales con armas atómicas. En cambio, estas confrontaciones fueron evitadas por personas que ofrecieron explicaciones de advertencia alternativas a pesar de la tecnología de punta. Trabajando en las condiciones más exigentes, insistieron en un «buen sentimiento» de evidencia engañosa de una advertencia nuclear inminente. Optaron por ignorar el protocolo establecido porque temían que un error llevaría a una guerra nuclear accidental.
El incidente de la falsa alarma nuclear de 1983 es digno de mención como una advertencia sobre el desarrollo de la IA después de la Guerra Fría. El ex militar soviético Stanislav Petrov detectó una advertencia informática en 1983 de que Estados Unidos había lanzado varios misiles. La advertencia fue incorrecta, y el hombre que salvó al mundo de la devastación nuclear fue atribuido a Petrov, quien falleció el año pasado.
Fred Iklé comentó una vez, «si algún testigo viniera aquí y les dijera que se puede diseñar e implementar un lanzamiento totalmente confiable y seguro en una postura de advertencia, ese hombre es un tonto». Si es así, ¿qué tan cerca puede la IA acercarnos a un control nuclear seguro y confiable? Los sistemas habilitados para IA pueden aspirar a reducir algunos de los errores mecánicos y humanos del control atómico. Los casos previos de alertas falsas y fallas en los sistemas de alerta temprana deben usarse para desarrollar puntos de referencia para probar rápidamente la precisión de una alerta de alerta temprana como el conjunto de datos de entrenamiento del algoritmo de IA. La velocidad y la precisión no deberían ser el objetivo de integrar la IA en los sistemas militares. También debería ayudar a los formuladores de políticas a ejercer el juicio y la prudencia para prevenir desastres accidentales.