Cuatro razones para prohibir los sistemas de armas autónomas letales (LAWS)

Vota este post

LAWS (sistemas letales de armas autónomas), también llamados “robots asesinos”, es un tipo especial de arma que utiliza sensores y algoritmos para identificar, atacar y destruir de forma autónoma un objetivo sin intervención humana manual. Hasta la fecha, no existen tales armas. Pero seguramente, algunas armas pueden rastrear misiles entrantes y atacar de forma autónoma esas amenazas sin la participación de ninguna persona. Según algunas personas, en unos pocos años, si no antes, esta tecnología estará lo suficientemente avanzada como para usar LAWS contra las personas.

Por lo tanto, un número creciente de naciones, estados como el Secretario General de las Naciones Unidas (ONU), el Comité Internacional de la Cruz Roja (CICR) y organizaciones no gubernamentales están apelando a la comunidad internacional para que regule o prohíba las LEYES. debido a una serie de preocupaciones fundamentales éticas, morales, legales, de responsabilidad y de seguridad. Las demandas de prohibir los robots asesinos cuentan con el apoyo firme de más de 70 países, más de 3000 expertos en robótica e inteligencia artificial, incluidos científicos destacados como Stephen Hawking, Elon Musk (Tesla) y Demis Hassabis (Google), y 116 expertos en inteligencia artificial y robótica. empresas, 160 líderes religiosos y 20 Premios Nobel de la Paz. China es el primer miembro permanente del Consejo de Seguridad de la ONU en pedir una ley legalmente vinculante, similar a las armas láser cegadoras, dentro de la CCW.

¿Pero por qué? ¿Por qué deberíamos prohibir las LEYES en primer lugar? ¿Cuáles son los riesgos que plantean las armas letales autónomas? En esta publicación, veremos cuatro razones por las que deberíamos prohibir los sistemas de armas autónomos letales (LAWS) en todo el mundo.

Previsibilidad y fiabilidad

Los sistemas de armas completamente autónomos siguen siendo una fuente de temor, principalmente porque las LAWS pueden contener imperfecciones inherentes y nunca pueden ser completamente predecibles o confiables. Existe un nivel de incertidumbre en LAWS, especialmente con tecnologías como el aprendizaje automático que se utilizan para guiar los procesos de toma de decisiones dentro de LAWS, por lo que nadie puede garantizar resultados deseables. Además, a nivel técnico, surge la pregunta de si y cómo los estándares éticos y el derecho internacional podrían incorporarse a los algoritmos que guían los sistemas de armas. Los expertos argumentan que la tecnología debe tener un cierto nivel de confianza antes de que pueda usarse con fines militares. Es muy probable que no se utilicen sistemas de armas altamente impredecibles si no pueden garantizar su resultado exitoso. Estas armas podrían ser altamente peligrosas por su naturaleza, particularmente en su interacción con otros sistemas autónomos y si son capaces de autoaprendizaje.

Carrera armamentista y proliferación

Muchos temen que el desarrollo de LAWS pueda conducir a una carrera armamentista mundial con naciones que tal vez no puedan evitar la proliferación con el tiempo, ya que la tecnología es relativamente barata y fácil de copiar. Esto aumenta los riesgos de proliferación y, por lo tanto, podría permitir que dictadores, actores armados no estatales o terroristas adquieran armas totalmente autónomas. Dado que las armas totalmente autónomas reaccionan e interactúan entre sí a velocidades que escapan al control humano, estas armas también podrían conducir a una escalada accidental y rápida del conflicto.

Además de su proliferación, algunas personas expresan su preocupación por su uso doméstico contra poblaciones y por parte de grupos terroristas. En 2014, el especialista en inteligencia artificial Steve Omohundro advirtió que “ya se está produciendo una carrera armamentista autónoma. Elon Musk y Stephen Hawking firmaron el “Compromiso de Armas Autónomas Letales” en 2018, pidiendo una prohibición global de las armas autónomas. En 2017, el Instituto Future of Life había organizado un compromiso aún mayor, advirtiendo el comienzo de una posible carrera armamentista entre las potencias mundiales.

La humanidad en conflicto: Preocupaciones éticas

Muchos argumentaron que la máquina no puede reemplazar el juicio humano y no se le debe permitir decidir la vida o la muerte. Tomar tales decisiones requiere atributos humanos como la compasión y la intuición, que los robots no poseen. Dar robots para decidir sobre la vida humana va en contra de los principios de la dignidad humana y el derecho a la vida. Esta decisión no puede dejarse en manos de un algoritmo. Subcontratar esta decisión significaría subcontratar la moralidad, argumentan. LAWS es quizás bueno para tomar decisiones rápidas y precisas, pero no es tan bueno como el juicio humano en la evaluación de contextos.

Responsabilidad y rendición de cuentas

Las armas completamente autónomas crean un vacío de rendición de cuentas con respecto a quién es responsable de un acto ilegal. Si un arma autónoma lleva a cabo un ataque letal, ¿quién es el responsable de este ataque? ¿El robot, el desarrollador o el comandante militar? Dado que LAWS abarca muchos nodos en una cadena militar de responsabilidad, puede ser difícil determinar quién es responsable, y existe el temor de que una rendición de cuentas poco clara pueda conducir a la impunidad. El derecho está dirigido a los humanos, y la responsabilidad jurídica no puede transferirse a una máquina.