Inteligencia artificial en el cuidado de la salud – Hype vs Hope

IA-sanidad

Uno de los riesgos más significativos a corto plazo en el desarrollo actual de herramientas de IA en medicina no es que pueda causar daños graves e involuntarios a los humanos, sino que no puede cumplir con las increíbles expectativas que está impulsando la publicidad excesiva.

De hecho, como lo señaló Gartner Hype Cycle, que rastrea las etapas de madurez relativa de las tecnologías emergentes, las llamadas tecnologías de IA, como el aprendizaje profundo y el aprendizaje automático, alcanzan el pico más alto de expectativas infladas para las tecnologías emergentes. Sin una apreciación tanto de las capacidades como de las limitaciones de la tecnología de IA en la medicina, como era de esperar, caeremos en un “abismo de desilusión”. El mayor riesgo de todos puede ser una reacción violenta que impida el progreso real hacia el uso de herramientas de IA para mejorar la vida humana.

Varios factores han llevado a un mayor interés y una escalada de la exageración de la IA durante la última década. Ha habido saltos discontinuos legítimos en la capacidad computacional, la disponibilidad de datos electrónicos (p. ej., ImageNet y la digitalización de registros médicos) y la capacidad de percepción (p. ej., reconocimiento de imágenes). Así como los algoritmos ahora pueden nombrar automáticamente la raza de un perro en una foto y generar una leyenda de un “perro atrapando un frisbee”, vemos un reconocimiento automático de lesiones cutáneas malignas y muestras de patología.

Tal funcionalidad es impresionante, pero puede llevar fácilmente a suponer erróneamente que la computadora “sabe” qué es el cáncer de piel y qué es necesario considerar para la escisión quirúrgica. La gente espera que un ser humano inteligente que pueda reconocer un objeto en una foto también pueda comprender y explicar naturalmente el contexto de lo que ve. Pero, no existe tal comprensión general de los algoritmos de IA aplicados y limitados en la parte superior del ciclo de exageración actual. En cambio, cada uno de estos algoritmos está diseñado para realizar tareas específicas, como responder preguntas de opción múltiple bien formadas.

Con la ley de Moore de crecimiento exponencial en el poder de cómputo, surge la pregunta de si es razonable esperar que las máquinas posean pronto un mayor poder de cómputo que el cerebro humano. Es posible que esta comparación ni siquiera tenga sentido con las arquitecturas cerebrales biológicas y de procesador de computadora fundamentalmente diferentes, porque las computadoras ya pueden superar a los cerebros humanos en mediciones de velocidad y almacenamiento puro. ¿Significa esto que los humanos se dirigen hacia una singularidad tecnológica que generará sistemas de IA completamente autónomos que se mejoran continuamente más allá de los límites del control humano?

Roy Amara, cofundador del Instituto para el Futuro, nos recuerda que “tendemos a sobrestimar el efecto a corto plazo de la tecnología y a subestimar el efecto a largo plazo”. Sin embargo, la inteligencia no es simplemente una función del poder de cómputo, entre otras razones. Aumentar la velocidad y el almacenamiento de la informática hace que sea una mejor calculadora, pero no una mejor pensadora. Al menos, en un futuro próximo, esto nos deja con cuestiones fundamentales de diseño y concepto en la investigación (general) de IA que han permanecido sin resolver durante décadas (p. ej., sentido común, encuadre, razonamiento abstracto y creatividad).

La publicidad hipérbole explícita podría ser uno de los desencadenantes más directos de las consecuencias no deseadas de la exageración. Si bien dicha promoción es esencial para impulsar el interés y motivar el progreso, puede volverse demasiado contraproducente. En última instancia, el marketing hiperbólico de los sistemas de IA que “superarán al cáncer” puede hacer retroceder el campo cuando se enfrente a las dolorosas realidades al tratar de lograr cambios en la vida real de los pacientes. Los avances modernos reflejan un progreso notable en el software y los datos de IA, pero pueden descartar miopemente el “hardware” (personas, políticas y procesos) del sistema de prestación de atención médica necesario para brindar atención.

Es posible que los sistemas de IA limitados no proporcionen a los médicos información más allá de lo que ya sabían, socavando muchas esperanzas de sistemas de alerta temprana y detección de pacientes asintomáticos con enfermedades raras. La investigación continua tiende a promover la última tecnología como panacea, incluso si hay una “regresión a la regresión” en la que los métodos tradicionales respaldados por una fuente adecuada de datos pueden ser tan o más útiles en muchas aplicaciones que las técnicas “avanzadas”. de IA.

Para reconocer el potencial creíble de los sistemas de IA y evitar la reacción violenta que surgirá de venderlos en exceso, es esencial una combinación de experiencia técnica y de dominio temático. Sin embargo, si nuestro punto de referencia mejora el estado actual de la salud humana, no hay necesidad de pesimismo. Los algoritmos y los sistemas de inteligencia artificial no pueden proporcionar “garantías de justicia, equidad o incluso veracidad”, pero tampoco los humanos.

La “falacia humana sobrehumana” es descartar los sistemas computarizados (o humanos) que no alcanzan un estándar irrealizable de perfección o mejoran al ser humano con el mejor desempeño. Los accidentes atribuidos a vehículos autónomos, por ejemplo, reciben una gran atención de los medios, aunque ocurren con mucha menos frecuencia que los accidentes atribuidos a vehículos conducidos por humanos. Sin embargo, el impacto potencial sobredimensionado de las tecnologías automatizadas nos hace exigir razonablemente un estándar más alto de confiabilidad incluso si el grado requerido no está claro y también puede costar más vidas en el costo de oportunidad mientras se espera la perfección.

En el cuidado de la salud, es posible determinar dónde incluso el aumento imperfecto de la IA clínica puede mejorar la atención y reducir la variación en la práctica. Por ejemplo, hay brechas en las que los humanos suelen juzgar mal la precisión de las pruebas de detección para diagnósticos raros, sobreestiman enormemente la esperanza de vida del paciente y brindan una atención de intensidad integral durante los últimos seis meses de vida. No es necesario exagerar el potencial de la IA en la medicina cuando existe una amplia oportunidad para abordar los problemas existentes con una variabilidad no deseada, costos agobiantes y acceso limitado a una atención de calidad.

Para identificar oportunidades para los sistemas predictivos automatizados, las partes interesadas deben considerar dónde las decisiones esenciales dependen de que las personas hagan predicciones con un resultado preciso. Aunque la intuición humana es poderosa, sin un sistema de apoyo, es inevitablemente variable. Se podrían identificar intervenciones escasas que se sabe que son valiosas y usar herramientas de IA para ayudar a identificar los pacientes con mayor probabilidad de beneficio. Por ejemplo, no todo el mundo necesita ser tratado por un equipo de cuidados ambulatorios intensivos, pero solo aquellos pacientes que los sistemas de IA predicen que tienen un alto riesgo de morbilidad pueden ser el objetivo. Además, existen numerosas oportunidades para implementar el soporte de flujo de trabajo de IA para ayudar a las personas a responder rápidamente o completar tareas de información repetitivas (por ejemplo, documentación, programación y otras tareas administrativas).