
La gran brecha entre humanos y máquinas se está estrechando permanentemente. Gracias al poder transformador de tecnologías como la IA y la robótica; cada uno de nosotros, de una forma u otra, nos enfrentamos a la interacción hombre-máquina (HMI) en nuestras vidas a través de dispositivos como audífonos, dispositivos portátiles, chatbots, robots colaborativos, etc.
Ya sea que se despierte con nuestros despertadores de radio digital por la mañana, viaje al trabajo en automóvil o tren, use una computadora portátil o de escritorio en nuestro lugar de trabajo o se comunique a través de teléfonos móviles con amigos y familiares, es seguro decir que humanos y máquinas la interacción está en todas partes.
HMI es un campo que ha dado grandes pasos hacia la comprensión y la mejora de nuestra interacción con las tecnologías informáticas. Durante varias décadas, los investigadores de HMI han estado analizando y diseñando sofisticados dispositivos portátiles, inalámbricos y virtuales que pueden facilitar mejores comunicaciones y lograr un mayor nivel de automatización y control para la seguridad, el rendimiento y la eficiencia en tareas cognitivas superiores.
En los últimos años, las interfaces hombre-máquina bien diseñadas han ganado un alto valor de mercado para muchos productos y servicios en campos de aplicación como la industria, la medicina, el transporte, los servicios, el hogar y el entretenimiento.
Sin embargo, el modelo actual de interacción hombre-máquina sigue los modos técnicamente más desafiantes que requieren experiencia en programación explícita. En la mayoría de los entornos industriales, los robots se controlan a través de una interfaz gráfica de usuario (GUI) y alguna iteración de un joystick/controlador. Los avances en GUI se han centrado en hacer que el control del comportamiento del robot sea lo más simple posible. Sin embargo, incluso con estas interfaces de usuario simplificadas, los usuarios inexpertos luchan con fallas en la interacción del robot.
Afortunadamente, los avances en la interfaz no invasiva cerebro-máquina, la interfaz no invasiva cuerpo-máquina y la interfaz de enjambre de cerebros pueden aumentar significativamente las aplicaciones de las máquinas al permitirles trabajar con personas de manera más segura para adaptarse a los cambios en su entorno o tareas sin una entrada explícita de un técnico.
En el futuro, permitirán una colaboración mucho mejor y más eficiente entre el personal no técnico y los robots, lo que conducirá a un aumento explosivo de la productividad y la escalabilidad. Alejarse del paradigma de control clásico está revolucionando nuestra capacidad de trabajar con robots de manera más intuitiva, disminuyendo la tasa de errores costosos y aumentando la productividad.
1. Interfaz cerebro-máquina no invasiva (BCI)
Una interfaz cerebral directa típica produce señales relativamente limpias a partir de un pequeño número de neuronas. Estos implantes cerebrales invasivos requieren una experiencia médica y quirúrgica considerable para instalarlos y operarlos correctamente, sin mencionar los costos y los riesgos potenciales para los sujetos.
Una alternativa es usar una serie de sensores portátiles que pueden medir la actividad cerebral a través de electroencefalografía no invasiva. Estos sensores, que se usan como un casquete, detectan, informan y cuantifican las señales cerebrales y pueden usarse como salidas para controlar máquinas. Este proceso requiere algo de práctica, pero permite a los usuarios dirigir una máquina solo con sus pensamientos, liberando teóricamente sus manos para otras tareas.
En 2019, el Laboratorio Ben He de la Universidad de Minnesota publicó estudios que muestran que los usuarios que usan estos sensores no invasivos pueden controlar un brazo robótico. El laboratorio desarrolló un método para capacitar a los usuarios en el uso de la interfaz moviendo un cursor en una pantalla con una interfaz de electroencefalografía no invasiva. Descubrieron que después de varias sesiones, los participantes no podían mover bloques a través del espacio 3D a una velocidad teórica sin redundancia ni flotando.
En investigaciones posteriores, el laboratorio He descubrió que la combinación de atención espacial e imágenes motoras, utilizando dos medidas en lugar de solo imágenes motoras, podría mejorar drásticamente la capacidad de controlar el cursor en tareas de movimiento 3D. Descubrieron que esto resultó en una tasa de transferencia de información promedio de alrededor de 30 bits por minuto. Estos resultados sugieren que, si bien los escáneres cerebrales no invasivos pueden permitir un control efectivo de los robots, la adición de otros modos de control puede mejorar drásticamente la eficacia de un piloto humano.
2. Interfaz cuerpo-máquina no invasiva
El control de robots mediante EEG no invasivo requiere una gran cantidad de práctica. Es algo poco intuitivo. Históricamente, esta tecnología se ha desarrollado para ayudar a las personas paralizadas a interactuar con el mundo. En este caso, la velocidad, la escalabilidad y el tiempo de entrenamiento rápido son menos esenciales. Sin embargo, la necesidad de vacilar y recordar la orientación no es necesariamente apropiada para aplicaciones industriales. Al usar sensores conectados a partes del cuerpo que normalmente usamos para agarrar o mover, podemos eliminar la necesidad de un entrenamiento tan extenso y crear una interfaz de control de máquina más intuitiva.
El Laboratorio Micera ha desarrollado una interfaz cuerpo-máquina para el control de drones aerotransportados que permite a un operador volar rápidamente el robot a través de una carrera de obstáculos utilizando movimientos corporales intuitivos. Su conjunto de sensores incluye marcadores cinemáticos y electrodos EMG y les permite ver a través de los ojos del dron usando un equipo de realidad virtual. Usando una serie de sensores, el movimiento de músculos específicos se puede convertir en señales precisas que se pueden usar para comunicar comandos a los robots, particularmente cuando se combinan movimientos de torso y brazos.
Curiosamente, el Laboratorio Micera usó un conjunto de estos sensores para permitir que los sujetos controlaran el dron volador como si fueran un pájaro, usando sus brazos y torso para dirigir el vuelo. Esta estructura de comando permitió a los sujetos controlar el dron con menos de un minuto de tiempo de entrenamiento, mientras que los sujetos que usaron un joystick tardaron 8 minutos en lograr un 20 % menos de rendimiento que el grupo que controlaba el dron con el sensor.
El laboratorio de la EPFL ha desarrollado un exotraje que permite el control de un dron volador de manera similar. Este “flyjacket” viene con varios sensores adheridos al traje, un guante inteligente con sensores para detectar los movimientos de las manos y un conjunto de realidad virtual para producir una interfaz cuerpo-máquina para el control natural de un dron. El equipo del sensor también se puede ajustar a una variedad de tamaños de cuerpo. El soporte y los sensores provistos por el flyjacket demostraron valores dramáticamente mejorados para el error RMS y la varianza en relación con el control del joystick en entornos limpios y desordenados. Ninguno de estos sistemas de interfaz cuerpo-máquina está disponible comercialmente en este momento, pero representan un trabajo a escala casi comercial que están realizando las universidades.
Si bien estos sistemas de interfaz cuerpo-máquina se han investigado principalmente para el vuelo y la teleoperación directa, se debe tener en cuenta que los resultados de datos sólidos y específicos de estos sistemas pueden tener una variedad de aplicaciones. Se podrían usar trajes similares para controlar un robot industrial o entrenar a un robot industrial para realizar una variedad de tareas dependientes del contexto con alta precisión. A medida que aumenta nuestra capacidad para incorporar múltiples tipos de entrada, también aumenta el alcance de las tareas realizadas por los robots.
3. Interfaz de enjambre de cerebros
Algunas tareas a gran escala, como el trabajo agrícola, se beneficiarían enormemente del comportamiento coordinado de los enjambres de drones. Sin embargo, esto no se puede manejar con los controles tradicionales y sería un desafío operar incluso con los sistemas de control proporcionados en los conjuntos de sensores de interfaz cuerpo-máquina.
El Grupo Schwager de la Universidad de Stanford ha combinado dos tipos de entradas, seguimiento ocular y un auricular EEG, para permitir el control simulado de un enjambre de robots de 128 miembros. En este sistema, la ubicación del enjambre de drones se controlaba detectando el movimiento de los ojos y la densidad del enjambre se controlaba mediante la interpretación de EEG. Si bien el enjambre se podía controlar en el espacio físico con este enfoque combinado, hubo una variación significativa en el movimiento de los drones, incluso cuando solo se controlaban tres drones.
En la misma línea, el laboratorio Lennox de la Universidad de Manchester ha desarrollado una interfaz humano-enjambre centrada en permitir que un operador humano controle las acciones de un enjambre de robots mediante una interfaz de realidad virtual. Supusieron que al mover los robots como si fueran un gigante virtual omnipotente con una combinación de gestos captados por un casco VR, un operador humano manejaría la increíble complejidad de controlar un enjambre de drones más fácilmente.
En su artículo reciente, Lennox Lab demostró la capacidad de esta interfaz para permitir que los humanos, con un entrenamiento mínimo, controlen el movimiento de múltiples drones a la vez. Bien puede ser que a medida que mejoran la sensibilidad del EEG, la visión artificial y los algoritmos de control, el control demostrado por estos sistemas puede mejorar. Estos estudios de prueba de concepto sugieren que la combinación de seguimiento ocular e interfaces hombre-máquina puede permitir un control de drones de mayor precisión y el uso efectivo de enjambres de drones para aplicaciones industriales.