
El miedo a un apocalipsis inminente de la IA va en aumento. Renombradas personalidades de la ciencia y la tecnología como Stephen Hawking, Elon Musk, Steve Wozniak y Bill Gates han expresado su preocupación por los riesgos que plantea la Inteligencia Artificial.
La mayoría de los investigadores están de acuerdo en que es una receta perfecta para la catástrofe cuando una IA superinteligente se vuelve autónoma con la capacidad de tomar decisiones y actuar en consecuencia. Porque es poco probable que muestre emociones humanas y no hay razón para esperar que la IA sea intencionalmente benévola o malévola. En manos de la persona equivocada, estas máquinas, en particular las armas autónomas que están programadas para matar, fácilmente podrían causar bajas masivas. Estas armas estarían diseñadas para ser extremadamente difíciles de «apagar» para evitar ser frustradas por el enemigo. Entonces, los humanos podrían perder plausiblemente el control de tal situación.
Según Elon Musk, “como la IA probablemente sea mucho más inteligente que los humanos, la relación de inteligencia relativa probablemente sea similar a la que existe entre una persona y un gato, tal vez mayor. Creo que debemos tener mucho cuidado con el avance de la IA”.
Veamos algunos de los riesgos comunes que, según creen los expertos, podrían ocurrir con el avance de la IA en el futuro.
Carrera armamentística autónoma
Un sistema de IA está programado para hacer algo beneficioso, pero puede desarrollar un medio destructivo para cumplir el objetivo que te has fijado. Por ejemplo, le está pidiendo a su automóvil inteligente que lo lleve al aeropuerto lo más rápido posible. Puede llevarte allí, pase lo que pase, ¡pero creando mucho caos o incluso bajas en el camino! Con la disponibilidad generalizada de tecnologías de inteligencia artificial de código abierto, incluso una sola persona puede causar violencia generalizada con drones equipados con detección de rostros. Imagine drones autónomos capaces de detectar el rostro de una persona y llevar a cabo un ataque. De miedo.
En cuanto a la posibilidad de una carrera armamentista autónoma similar a escala mundial entre gobiernos y naciones en el futuro, el presidente de Rusia, Vladimir Putin, dijo: “La inteligencia artificial es el futuro, no solo para Rusia sino para toda la humanidad. Viene con enormes oportunidades, pero también amenazas que son difíciles de predecir. Quien se convierta en el líder en esta esfera se convertirá en el gobernante del mundo”.
Hackeo y phishing
Cuando los piratas informáticos y los delincuentes tienen acceso a la inteligencia artificial y las técnicas de aprendizaje automático, pueden crear un programa basado en inteligencia artificial que puede piratear las computadoras de las personas y comunicarse con las víctimas hasta que reciban el rescate. Puede automatizar todas las tareas, como el procesamiento de pagos, presumiblemente cobrando rescates más rápido. Entonces, los piratas informáticos posiblemente podrían apuntar a más personas a la vez sin tener que comunicarse con ellos y exigir pagos. Las estafas de phishing también podrían volverse más frecuentes y efectivas. La información y los comportamientos en línea de las personas, presumiblemente extraídos de las redes sociales, podrían usarse para crear automáticamente correos electrónicos personalizados capaces de imitar el estilo de escritura de los amigos de las personas.
noticias falsas y propaganda
Los avances de la IA llevaron a los investigadores a crear audios y videos realistas de figuras políticas que están diseñados para verse y hablar como contrapartes de la vida real. Por ejemplo, los investigadores de inteligencia artificial de la Universidad de Washington crearon recientemente un video del expresidente Barack Obama dando un discurso que parece increíblemente realista pero que era falso. Las personas podrían crear “informes de noticias falsas”, que podrían mostrar que los líderes del estado parecen hacer comentarios incendiarios que nunca han hecho. La IA puede dirigirse a ellos difundiendo propaganda y distribuyendo la información que deseen, en el formato que les resulte más convincente.
Manipulación social y discriminación.
El reconocimiento facial se usa ampliamente para la vigilancia policial y gubernamental en muchos países, particularmente en China. Dado que la tecnología puede recopilar, rastrear y analizar tanto sobre usted, estas máquinas pueden usar esta información en su contra. La tecnología es una excelente forma de invadir la privacidad de las personas, y los sesgos de los datos de entrenamiento hacen que sea probable que automatice la discriminación.
El año pasado, se encontró sesgo en numerosas herramientas comerciales. Los algoritmos de visión ya no han reconocido a las mujeres ni a las personas de color, y se ha demostrado que los programas de contratación perpetúan la discriminación que ya existe.
Los algoritmos son muy eficientes para realizar marketing objetivo en las redes sociales porque saben quiénes somos, qué nos gusta y son increíblemente buenos para adivinar lo que pensamos. Todavía se están realizando investigaciones para determinar la culpa de Cambridge Analytica y otros asociados con la compañía que utilizó los datos de 50 millones de usuarios de Facebook para tratar de influir en el resultado de las elecciones presidenciales de EE. UU. de 2016 y el referéndum del Reino Unido sobre el Brexit. Si los cargos son correctos, ilustra el poder de la IA para manipular socialmente.
Invasión de privacidad
Con los asistentes de voz domésticos como Google Home y Amazon Alexa escuchando las conversaciones de los usuarios, los temores de las personas de ser rastreados en función de lo que dicen, piensan o buscan en línea están aumentando. Tenemos cámaras en casi todas partes, y con algoritmos para el reconocimiento facial, ahora es posible rastrear y analizar cada movimiento de un individuo en línea, así como también cuando está haciendo su trabajo diario. Cuando el Gran Hermano te observa y luego toma decisiones basadas en esa inteligencia, no es solo una invasión de la privacidad que puede convertirse rápidamente en opresión social.
China ha implementado un sistema de crédito social en los últimos años que rastrea y evalúa a las personas en gran medida en función de una combinación de delitos en su mayoría menores, actividades en Internet, registros financieros, mensajes privados, antecedentes de salud, historial de citas, etc. Las personas con bajo crédito social tienen se les ha prohibido viajar con boletos de avión, inscribir a sus hijos en escuelas de élite (a pesar de las habilidades y destrezas de sus hijos), o incluso salir del país bajo ciertas circunstancias. Por el contrario, el sistema beneficia a aquellos con altos puntajes de crédito social. Los mismos efectos adversos ocurrirán en otros lugares si se aplica globalmente un sistema de crédito social.
Pérdida de puestos de trabajo
Las máquinas de IA son más productivas y exitosas que sus contrapartes humanas. Se eliminan muchas preocupaciones exclusivamente humanas: situaciones personales y emocionales; letargo y agotamiento; y el aburrimiento y la distracción. Las máquinas alimentadas por IA no tienen capacidad emocional humana. Los empleados mecanizados son, por lo tanto, ideales porque no pueden verse afectados por sucesos emocionales dentro o fuera del lugar de trabajo. Además, las máquinas programadas con IA y alimentadas por electricidad o baterías no enfrentarán una «fuga de cerebros» similar a la humana. Las máquinas alimentadas por IA no se cansan y no van a disminuir la velocidad. No encontrarán que las tareas repetitivas sean aburridas o tediosas, como empacar, sellar y estampar cajas. No cometen errores. Esencialmente, muchos fabricantes prefieren empleados automatizados con IA, y la pérdida de puestos de trabajo es inminente para los humanos.
Resumamos. Es posible hacer un mal uso de cualquier tecnología poderosa. Desafortunadamente, también veremos que se usa con fines peligrosos o maliciosos a medida que se expanden nuestras capacidades de IA. Dado que la tecnología de IA avanza tan rápidamente, es vital que comencemos a debatir las mejores formas para que la IA se desarrolle de manera positiva y minimice su potencial de destrucción.