Principales fallas épicas en la historia de la IA

Vota este post

Estamos a las puertas de una nueva era en la historia de la IA. La inteligencia aumentada o inteligencia de asistencia, como la llamamos, es la nueva conceptualización alternativa de la inteligencia artificial que se centra en el papel cognitivo y de asistencia de la IA para mejorar la inteligencia humana.

Las tecnologías portátiles, junto con los sistemas de detección ubicuos, nos están impulsando hacia nuevos sistemas integrados inteligentes, que forman una extensión natural de los seres humanos y las capacidades físicas. Los avances en el hardware de detección y computación ahora pueden vincular la función cerebral con el comportamiento humano a un nivel en el que la autoconciencia y las emociones de la IA se pueden simular y observar de manera más pragmática. Los algoritmos, junto con sensores avanzados, pueden monitorear el mundo que nos rodea y comprender nuestras intenciones, lo que facilita interacciones fluidas.

La computación cuántica ha atraído recientemente una nueva ola de interés tanto de instituciones académicas como de empresas tecnológicas como Google, IBM y Microsoft. También hay un gran interés en el aprendizaje profundo con resultados prometedores que remodelarán el futuro en el que los humanos dependerán cada vez más de los sistemas de IA para vivir, trabajar y entretenerse.

Aunque la IA tiene el potencial de cambiar el mundo, la tecnología aún está en pañales y su uso práctico no está exento de fallas. La mayoría de los sistemas de IA actuales se pueden engañar fácilmente, lo cual es un problema que afecta a casi todas las técnicas de aprendizaje automático. La mayoría de los investigadores de hoy utilizan los enfoques actuales de IA como una caja negra debido a la falta de interpretación. A los sistemas de IA actuales todavía les falta un mayor nivel de abstracción y generalización. Como resultado, cuando el sistema tiene que lidiar con situaciones nuevas cuando se dispone de datos de entrenamiento limitados, el modelo suele fallar.

En esta publicación, presentamos una cronología de algunas de las principales fallas épicas en la historia de la IA.

1959

General Problem Solver (GPS) era una máquina de resolución de problemas universal, destinada a resolver casi cualquier problema. El GPS resolvió problemas simples pero no pudo resolver problemas del mundo real.

1971

DARPA financió un consorcio de laboratorios líderes en el campo del reconocimiento de voz para traducir documentos soviéticos al inglés. El proyecto tenía el ambicioso objetivo de crear un sistema de reconocimiento de voz completamente funcional con un amplio vocabulario. Pero el desarrollo no estuvo a la altura de las abrumadoras expectativas. Tras resultados decepcionantes, DARPA retiró la financiación. El proyecto se cerró, después de gastar $ 20 millones.

1976

Douglas Lenat inventó una inteligencia artificial llamada Eurisko, diseñada para hacer descubrimientos. El sistema de descubrimiento consta de heurísticas, es decir, reglas generales, que incluyen heurísticas que describen cómo usar y cambiar sus heurísticas. Pero hubo errores como «heurística mutante» que aprendieron a hacer trampa. El código fuente de Eurisko nunca fue publicado ni reproducido.

1977

TALE-SPIN (Meehan 1977) fue un programa interactivo que generó historias sobre la vida de simples criaturas del bosque. Pero el software con sentido común limitado produjo historias «equivocadas».

1980

Un proyecto de investigación del gobierno/industria en Japón tuvo como objetivo crear un sistema informático de quinta generación, utilizando computación paralela. Después de diez años de investigación y $ 400 millones, el proyecto se terminó sin haber cumplido sus objetivos y proporcionar una plataforma para futuros desarrollos en IA.

1983

Un sistema nuclear de alerta temprana de la Unión Soviética informó falsamente del lanzamiento de múltiples misiles balísticos intercontinentales desde bases en los Estados Unidos. Las advertencias podrían haber resultado en una escalada inmediata e irrevocable a una guerra nuclear a gran escala. Más tarde, una investigación encontró que el sistema de alerta por satélite no funcionaba correctamente.

1984

El Programa Nacional de Emparejamiento de Residentes (NRMP) usó un algoritmo (conocido como Algoritmo de Matrimonio Estable) para asignar hospitales a los residentes en función de sus preferencias de hospital de manera inteligente. Pero el programa de emparejamiento estaba inherentemente sesgado en la colocación de parejas casadas.

1988

Una facultad de medicina del Reino Unido desarrolló un programa informático para ayudar a clasificar las solicitudes de admisión. Pero resultó que el programa informático discriminaba a las mujeres ya las personas de origen inmigrante.

2015

El software de filtrado de contenido para adultos de Google no pudo eliminar el contenido inapropiado en su nuevo YouTube Kids. La aplicación no eliminó el «contenido inapropiado», incluido el lenguaje sexual explícito y las bromas sobre la pedofilia.

2016

Un robot humanoide llamado Promobot, diseñado para promocionar productos o realizar encuestas, creó muchos atascos de tráfico después de escapar de su laboratorio. Fue arrestado mientras recopilaba las opiniones de los votantes para los candidatos políticos para obtener una ventaja injusta.

A un neozelandés de ascendencia asiática, llamado Richard Lee, se le rechazó el pasaporte cuando el software de reconocimiento facial del departamento de asuntos internos registró por error que sus ojos estaban cerrados. El pasaporte fue bloqueado después de que envió la foto a un verificador de fotos de pasaportes en línea administrado por el departamento. El sistema automatizado le dijo al estudiante de ingeniería que la foto no era válida porque tenía los ojos cerrados.

En el primer accidente fatal que involucró a un automóvil autónomo, un conductor de Tesla murió en un accidente de Silicon Valley mientras usaba el modo de piloto automático. Los sensores del piloto automático del Model S no pudieron distinguir un camión con remolque blanco que cruzaba la carretera contra un cielo brillante. El automóvil viajaba a 70 millas por hora cuando golpeó una barrera de seguridad y fue golpeado por otros dos vehículos.

Microsoft ocupó grandes titulares en 2016 cuando anunció su nuevo chatbot de IA, que podía responder automáticamente y entablar conversaciones informales y divertidas con personas en Twitter. Menos de 24 horas después del lanzamiento de Tay, los trolls de Internet corrompieron la personalidad del chatbot al inundarlo con una avalancha de tuits racistas, misóginos y antisemitas. Después de un esfuerzo superficial para limpiar Tay, Microsoft desconectó su chatbot de IA.

2017

Los investigadores de Facebook descubrieron que Alice y Bob, dos de sus chatbots impulsados ​​por IA, habían desarrollado su lenguaje secreto y mantenían conversaciones entre ellos. Alice y Bob fueron cerrados después de que se descubrieron sus conversaciones.

En 2013, IBM se asoció con MD Anderson Cancer Center para desarrollar un nuevo sistema de «Asesor experto en oncología» que puede erradicar el cáncer a través de mejores recomendaciones de tratamiento del cáncer. IBM iba a permitir a los médicos «descubrir información valiosa de las ricas bases de datos de pacientes e investigación del centro de cáncer». Pero en 2018, se descubrió que Watson de IBM estaba dando consejos erróneos y francamente peligrosos sobre el tratamiento del cáncer, ya que los ingenieros de IBM entrenaron el software en una pequeña cantidad de pacientes hipotéticos con cáncer, en lugar de datos de pacientes reales. Como resultado, MD Anderson había «enviado» al proyecto Watson for Oncology. MD Anderson gastó más de $62 millones sin alcanzar sus metas.

2018

En 2014, un equipo de la oficina de Edimburgo de Amazon creó una herramienta de reclutamiento de inteligencia artificial para clasificar los CV y ​​seleccionar automáticamente a los candidatos más talentosos. Pero el algoritmo aprendió rápidamente a favorecer a los candidatos masculinos sobre los femeninos. Más tarde, Amazon eliminó la herramienta «sexista» que mostraba prejuicios contra las mujeres.

Un SUV autónomo de Uber atropelló y mató a una peatón el 28 de marzo en Tempe, Arizona. El vehículo estaba en modo autónomo, con un conductor de seguridad humana al volante. Los informes muestran que los autos sin conductor de Uber estuvieron involucrados en 37 accidentes antes del incidente fatal, que cerró temporalmente el programa.